Les livrets (accueil) Livret-3 (accueil) Table des matières                

 

 

L'Intelligence           

           Artificielle,                

mais enfin

                de quoi s'agit-il?





Des chercheurs de l'IRIT

           répondent ...




Les livrets du Service Culture UPS n°3




Hen
 
Les livrets (accueil) Livret-3 (accueil) Table des matières

 

 

Avant-Propos

Petit historique des débuts de l'IA

Dix grands paradigmes de recherche

Représenter l'information, acquérir des connaissances

Algorithmes généraux de résolution de problèmes

Intelligence artificielle collective

Formaliser et mécaniser différents types de raisonnement

Evaluer des situations, décider, planifier

Raisonner sur le changement, le temps, et l'espace

Résumer, apprendre, découvrir

Langue et IA: des interrelations étroites

Indexation multimédia et IA

La réalité virtuelle et l'IA

La place de l'IA dans les sciences

IA et mathématiques

IA et informatique

L'IA et les sciences du traitement de l'information

Sciences de la cognition et IA

L'IA et la théorie des systèmes symboliques

L'IA, un voyage dans notre culture

Pour conclure... sur une ouverture

Quelques références

Intervenants

 

 

 

Les livrets Livret-3 Table des matières

 

 

Avant-propos

 

L'usage de l'expression Intelligence Artificielle (on utilisera le plus souvent l'abréviation IA dans la suite) s'est largement répandu dans le public, au fur et à mesure des progrès de la technologie informatique et de sa propagation dans les activités humaines. L'IA fait maintenant partie de notre culture comme en témoigne l'existence de nombreux articles, livres, ou films s'y rapportant plus ou moins directement.

Il est vrai que le terme Intelligence Artificielle a pu causer quelques malentendus, voire déplaire, et peut assurément être interprété de diverses manières. En effet, si chacun peut apprécier les capacités toujours plus grandes des machines pour effectuer des calculs numériques ou des opérations symboliques, ou traiter des documents, l'idée que la machine pourrait détenir ne serait-ce que quelques onces d'intelligence provoque bien naturellement des questions, des craintes et des fantasmes.

Comme le suggère le rapprochement, qui a pu sembler provocateur à certains, des mots "intelligence" et "artificiel", il s'agit de réussir à donner à des machines des capacités leur permettant d'effectuer des tâches ou des activités réputées intelligentes (car jusqu'à présent uniquement réalisées par des humains). Une telle définition reste cependant assez vague car elle ne donne ni une définition de l'intelligence, ni même ne précise la nature des capacités dont il convient de doter la machine. Ainsi, une machine capable de reclasser dans l'ordre croissant des nombres donnés en vrac, ou de résoudre des équations, n'est pas considérée comme intelligente pour autant (même si seulement un petit nombre de mathématiciens savent résoudre les équations considérées !).

Les recherches en IA tendent à rendre la machine capable d'acquérir de l'information, de raisonner sur une situation statique ou dynamique, de résoudre des problèmes combinatoires, de faire un diagnostic, de proposer une décision, un plan d'action, d'expliquer et de communiquer les conclusions qu'elle obtient, de comprendre un texte ou un dialogue en langage naturel, de résumer, d'apprendre, de découvrir. Pour ce faire, la machine doit être munie de méthodes génériques susceptibles de s'adapter à de larges classes de situations.

Même si sur toutes ces questions de grands progrès restent certainement à faire, de nombreux résultats ont déjà été obtenus montrant qu'au moins, dans une certaine mesure, ce programme est réalisable.

Cependant, une machine dotée de l'ensemble des fonctionnalités citées plus haut, ces fonctionnalités ayant atteint leur meilleur niveau d'efficience, serait encore assez loin de posséder les capacités de penser d'un être humain (même si la machine s'avérera bien plus performante sur certains registres de tâches qu'un être humain). On pourra consulter l'opuscule de la même série " Les machines pensent-elles " pour une discussion autour de cette question.

Par ailleurs, l'IA entretient des échanges fructueux avec les sciences cognitives, car, d'une part elle fournit de nouveaux repères, points de comparaison pour la compréhension de l'intelligence, et d'autre part elle peut s'inspirer de ce que l'on sait du fonctionnement du cerveau et de la façon dont l'homme raisonne, même si rien ne dit que l'IA doive copier l'intelligence humaine dans toutes ses manières de procéder (ainsi les avions volent, quoique différemment des oiseaux !). De plus, puisque la machine doit échanger ses conclusions avec des usagers, il importe qu'elle puisse s'exprimer en termes cognitivement significatifs pour eux.

L'ambition de ce livret est d'apporter une image relativement structurée, concise quoique précise, des préoccupations de la recherche en Intelligence Artificielle aujourd'hui, au travers de la présentation des principaux paradigmes (de base ou applicatifs) qu'elle étudie, et d'indiquer sa place vis-à-vis des autres disciplines scientifiques, et l'évolution de sa présence dans les productions culturelles.

Henri Prade

 

 

 

Les livrets Livret-3 Table des matières

 

 

Petit historique des débuts de l'IA

 

 

L'acte de naissance de l'Intelligence Artificielle (IA) correspond à un programme de rencontres organisées à Dartmouth College (Hanover, New Hampshire, USA) pendant l'été 1956, à l'initiative notamment de deux jeunes chercheurs qui, dans des registres différents, allaient fortement marquer le développement de la discipline : John McCarthy et Marvin Minsky, le premier défendant une vision purement logique de la représentation des connaissances, le second privilégiant l'usage de représentations structurées (appelées en anglais 'frames') de stéréotypes de situations pouvant inclure différents types d'information. C'est à cette occasion que l'expression 'Artificial Intelligence' (choisie par McCarthy) fut utilisée pour la première fois de manière systématique pour désigner le nouveau champ de recherche ; elle était cependant loin de faire l'unanimité parmi les chercheurs présents, certains ne voyant là que du traitement complexe d'informations. D'autres participants à ces rencontres, Alan Newell et Herbert Simon, allaient aussi avoir un impact particulièrement important sur le développement de l'IA.

Bien sûr, les rencontres de Dartmouth étaient le résultat d'une effervescence qui avait débuté un peu avant 1950 autour de questions liées d'une part à la possibilité de construire des "machines à penser", voire des "machines pensantes" ('thinking machines'), et d'autre part à la comparaison du fonctionnement du cerveau humain avec les premiers ordinateurs qui venaient d'apparaître (et qui étaient essentiellement tournés vers le calcul numérique). La naissance de l'IA a été ainsi plus ou moins directement influencée par différents travaux : notamment ceux de Warren McCulloch et Walter Pitts qui, inspirés par la neurophysiologie, proposaient les tout premiers modèles de réseaux de neurones artificiels, ceux de Norbert Wiener sur la cybernétique (science centrée sur l'étude des mécanismes de communication et de contrôle des machines et des êtres vivants), ceux de Claude Shannon en théorie de l'information, ceux de John von Neumann sur l'architecture des calculateurs, et ceux d'Alan Turing sur les fonctions calculables par machine.

C'est aussi en 1956 que Newell et Simon (en collaboration avec J. Cliff Shaw), proposèrent un premier programme d'ordinateur capable de démontrer des théorèmes en logique, avant de bientôt présenter un "résolveur de problème général' ('General Problem Solver'), basé sur l'évaluation de la différence entre la situation à laquelle le résolveur est arrivé et le but qu'il a à atteindre.

L'IA s'intéresse dès ses débuts au développement de programmes capables de jouer aux échecs (C. Shannon discute le problème dans plusieurs articles dès 1950). Les premiers programmes, notamment ceux de Arthur Samuel et Alex Bernstein, apparaissent au début des années 60, et au fil des décennies arrivent à battre des joueurs de niveaux de plus en plus élevés, comme déjà MacHack celui de Richard Greenblatt à la fin des années 60. La recherche des années 70 dans ce domaine est marquée par l'idée de doter la machine de capacités de mise en oeuvre évoluant dynamiquement avec le jeu (comme dans les travaux de Hans Berliner). C'est cependant d'abord la puissance calculatoire de l'ordinateur capable d'explorer de gigantesques espaces combinatoires qui viendra à bout du champion du monde de la discipline (victoire de l'ordinateur "Deep Blue" sur Gary Kasparov, en 1997).

Parmi les travaux variés qui marquèrent les débuts de l'IA, mentionnons encore le programme de Thomas G. Evans (1963) capable, comme dans un test d'intelligence, de trouver par analogie la quatrième figure géométrique complétant une série de trois ( ce qui nécessitait aussi une représentation conceptuelle des figures), ou les systèmes exploitant des contraintes en les propageant, comme dans l'approche de David Waltz (1975) pour reconnaître dans une image les lignes correspondant aux arêtes de solides et leurs positions relatives, approche qui devait s'étendre par la suite à beaucoup d'autres domaines où la représentation par contraintes s'impose naturellement.

Le traitement de textes ou de dialogues en langage naturel, tant au plan de leur compréhension qu'au plan de leur production automatique, a préoccupé également l'IA très tôt. Le système ELIZA (de Joseph Weizenbaum) en repérant des expressions clés dans des phrases et en reconstruisant à partir d'elles des phrases toutes faites, était capable dès 1965, de dialoguer en langage naturel en trompant un moment des interlocuteurs humains qui croyaient avoir affaire à un interlocuteur humain ! Pourtant ELIZA ne construisait aucune représentation des phrases du dialogue et donc n'en détenait aucune compréhension. C'est sans doute le système SHRDLU de Terry Winograd qui en 1971 fut le premier à construire de telles représentations et à les exploiter dans des dialogues qui portaient sur un monde simplifié fait de blocs, et où on s'intéressait à leurs positions relatives.

Les années 70 et le début des années 80 furent marqués par la réalisation de nombreux systèmes experts (DENDRAL en chimie, MYCIN en médecine, HEARSAY-II en compréhension de la parole, PROSPECTOR en géologie), où une connaissance experte dans un domaine spécialisé est exprimée sous forme de règles "si...alors..." et est appliquée à un ensemble de faits décrivant la situation sur laquelle le système doit produire des conclusions.

Les années 70 en IA furent aussi celles des premières expérimentations avec des robots mobiles (comme par exemple le robot Shakey du SRI à Menlo Park en Californie), qui posaient conjointement des problèmes de vision par ordinateur, de représentation des connaissances, et de planification d'activités et de trajectoires. Une dizaine d'années plus tard, Rodney Brooks, au MIT, s'intéressera à des sociétés de robots réactifs à leur environnement immédiat, mais agissant sans représentation construite du monde dans lequel ils évoluent.

Comme le montre ce bref aperçu historique, l'IA s'est largement développée tout d'abord aux Etats-Unis, avant, à partir du milieu des années 70, d'intéresser des chercheurs en Europe puis en Asie. Pour ce qui est de la France, si l'on excepte des pionniers de la cybernétique (Louis Couffignal, Paul Braffort), et si l'on ne s'en tient qu'à des recherches se réclamant explicitement de l'IA, les premières équipes françaises dans ce domaine, furent créées à Paris, puis à Marseille sous les impulsions respectives de Jacques Pitrat (qui a en particulier mis en lumière le rôle des métaconnaissances dans les processus de résolution de problèmes et d'apprentissage), et d'Alain Colmerauer (père d'un langage de programmation, PROLOG, basé sur la logique et très utilisé en IA). Des équipes d'IA devaient ensuite bientôt naitre dans d'autres grands centres : Toulouse, Grenoble, Nancy, … Aujourd'hui, presque tous les laboratoires d'informatique comptent des chercheurs en IA.

Henri Prade

 

 

 

Les livrets Livret-3 Table des matières

 

 

Dix grands paradigmes de recherche

 

 

 

 

Les livrets Livret-3 Table des matières

 

 

Représenter l'information, acquérir des connaissances

 

Avec le système expert d'aide au diagnostic médical MYCIN conçu en 1975 l'architecture des systèmes de résolution de problèmes répondait aux exigences fondatrices de l'IA, en séparant d'un côté un programme (le moteur) ayant des capacités générales de raisonnement (capacités d'inférence), et d'autre part des connaissances spécifiques à l'application (la base de connaissances), représentées le plus souvent sous la forme d'affirmations et de règles "SI conditions ALORS conclusions". Des représentations, basées sur la logique, ou structurées comme les " frames " (assemblages d'objets définissant un contexte, proposés par Minsky pour représenter initialement des concepts visuels), les scripts (décrivant une séquence d'événements), et autres représentations de ce type, comme les réseaux sémantiques (réseaux de concepts liés par des associations) ont également été introduites en IA et ont par la suite été développées dans des applications informatiques classiques comme la " programmation objet ", qui reprend le concept de frame en représentant des entités auxquelles sont associés des comportements, ou comme les bases de données. Ces systèmes ont séduit par leur structure modulaire, laissant envisager le développement simple d'applications à base de connaissances dans des domaines aussi variés que la mécanique, la médecine, la chimie, ... et pour des tâches différentes : diagnostic et réparation de pannes, agencement, etc.

La seule difficulté était de renseigner la base à l'aide des notions et des règles du domaine concerné, en tenant compte de leur utilisation dans le raisonnement. Or cette difficulté a été rendue responsable de la non-utilisation de plusieurs systèmes pourtant techniquement valides : ils ne contenaient pas les bonnes connaissances ! Ce fut donc l'enjeu essentiel de l'acquisition des connaissances, devenue véritable champ de recherches, de contribuer à définir des systèmes d'aide à l'usager qui soient utilisés et utilisables parce qu'ils traitent correctement les bons problèmes. Ce domaine de l'informatique fait appel à la psychologie (pour étudier et recueillir les modes de raisonnement des individus), ainsi qu'à l'ergonomie et aux sciences sociales (pour spécifier des connaissances adaptées aux besoins des utilisateurs dans le cadre de travail), ou encore à la linguistique dès lors que l'on souhaite extraire de textes les savoirs déjà explicités.

La problématique d'origine s'est aujourd'hui élargie. Sous le nom "d'ingénierie des connaissances", elle englobe désormais la conception d'applications d'aide "intelligente" à l'utilisateur. En tant qu'ingénierie, elle cherche à définir des principes, des méthodes et outils pour guider le recueil, l'analyse et la structuration des connaissances et informations nécessaires dans l'application finale. Le courant majoritaire des recherches s'appuie sur la notion clé de modèle conceptuel. Un modèle est vu comme une représentation simplificatrice du monde, justifiée par les besoins de l'application. Il est conceptuel car interprétable par les individus impliqués dans le projet et traduisible dans un langage opérationnel, qui, lui, est interprété par la machine. Le modèle assure donc, entre les individus et le système artificiel, un continuum dans le sens donné aux concepts, règles et raisonnements utilisés pour traiter une tâche donnée. Il doit garantir au système un comportement rationnel (motivé par des buts), efficace et pertinent, éventuellement adaptable, face aux utilisateurs et aux experts du domaine.

Les difficultés essentielles de cette approche sont liées aux caractéristiques des connaissances. Elles sont implicites et nécessitent donc de définir des méthodes d'analyse de l'activité pour y accéder. Elles sont évolutives et les modèles doivent pouvoir être mis à jour simplement. Elles sont contextualisées, ce qui implique de prendre en compte les conditions dans lesquelles elles sont utilisées.

On sait aujourd'hui construire des " ontologies ", structures de données contenant les concepts d'un domaine et leurs liens sémantiques, à partir de textes à l'aide de logiciels de traitement automatique du langage. On sait également évaluer l'impact de l'application sur le contenu du modèle, les limites de la réutilisation directe des composants de connaissances, et on dispose de méthodes pour l'adaptation et la spécialisation de composants.

Des applications significatives ont été réalisées dans divers domaines :

- informatisation du dossier médical dans les hôpitaux ;

- diagnostic de pannes dans le fonctionnement des hauts fourneaux ;

- recherche intelligente d'information dans des sources de données hétérogènes sur internet (avec des ontologies).

Les échanges de savoir, le partage mais surtout la localisation des connaissances ou l'identification de compétences sont présentés comme étant à la portée de chacun et de toute entreprise. Loin de céder aux charmes de discours séduisants liés à la gestion des connaissances dans les entreprises, l'ingénierie des connaissances étudie de près, en collaboration étroite avec des gestionnaires, des spécialistes des systèmes d'information ou de sciences humaines, les enjeux scientifiques et théoriques de cette facilité trompeuse. Il s'agit d'alimenter de manière pertinente les ressources technologiques, de faciliter une utilisation finalisée qui aide à filtrer, retrouver, organiser les connaissances dont chacun a besoin, dans une forme plus ou moins opérationnelle. Ainsi, en se tournant vers les systèmes d'information des entreprises et vers les technologies de l'information, l'ingénierie des connaissances continue de traiter, dans des cadres applicatifs nouveaux, le problème récurrent de l'accès au sens et aux connaissances.

Nathalie Aussenac et Jean-Luc Soubie

 

 

 

Les livrets Livret-3 Table des matières

 

 

Algorithmes généraux de résolution de problèmes

 

Pour attaquer un problème il arrive qu'on puisse le décomposer en sous-problèmes puis décomposer ceux-ci, etc., jusqu'à n'avoir plus que des problèmes dont la solution est considérée comme immédiatement accessible sans qu'il soit nécessaire de les décomposer à leur tour. L'ensemble des décompositions possibles peut être représenté par un " graphe des sous-problèmes ". Certains sommets marquent une conjonction de sous-problèmes dont la résolution implique celle du problème décomposé. D'autres sommets marquent une disjonction de décompositions possibles. La résolution d'un problème est alors ramenée à la recherche d'un certain sous-graphe du graphe des sous-problèmes.

Remplacer un problème par un problème équivalent peut être vu comme une forme particulière de décomposition. Dans ce cas, on cherche une suite d'opérations d'équivalence qui conduise à un problème déjà résolu. En figurant les problèmes par des sommets et les opérations d'équivalence par des arêtes, on se ramène à la recherche d'un parcours, éventuellement optimal ou voisin de l'optimum, dans un " graphe des états ".

En général, les possibilités de parcours sont si nombreuses qu'on ne peut examiner toutes les alternatives. En revanche, il arrive que la recherche puisse être guidée par des connaissances d'origine plus ou moins analytique ou expérimentale ou empirique qu'on appelle des " heuristiques " : on parle alors de " Résolution Heuristiquement Ordonnée ". Ainsi pour construire un itinéraire, chercher à réduire la distance à vol d'oiseau qui sépare de l'objectif est une heuristique familière et souvent efficace. Les heuristiques et les divers algorithmes qui sont capables de les exploiter sont intéressants s'ils favorisent la découverte de solutions satisfaisantes, voire optimales, par rapport à la difficulté du problème et aux ressources mobilisées.

Après les succès de programmes jouant au backgammon ou aux dames, la victoire du système joueur d'échecs Deep Blue, en 1997, contre Gary Kasparov, champion du monde en titre, témoigne spectaculairement des progrès accomplis depuis un demi-siècle pour explorer de vastes graphes de sous-problèmes.

On peut aussi attaquer certains problèmes en essayant systématiquement de donner des valeurs, prises dans des domaines finis, à un ensemble fini d'inconnues, de sorte qu'elles satisfassent une collection finie de contraintes. Différents algorithmes de " Résolution par Satisfaction de Contraintes " à vocation générale ont été proposés et partiellement comparés. Un problème de référence souvent abordé dans ce cadre est le " problème de satisfiabilité " ou " problème SAT " : il s'agit de trouver des valeurs (soit " vrai " soit " faux ") pour les variables d'un ensemble d'expressions logiques (disjonctions, conjonctions, négations de variables) de sorte que les expressions prennent simultanément la valeur " vrai ". Des heuristiques sont étudiées en vue de renforcer l'efficacité, prédite et/ou observée, des algorithmes de ce type.

Résolution Heuristiquement Ordonnée et Résolution par Satisfaction de Contraintes peuvent servir, éventuellement ensemble, dans des contextes variés : identification, diagnostic, décision, planification, démonstration, compréhension, apprentissage… Ces approches sont aujourd'hui en mesure d'aborder des problèmes de plus grande taille ou plus complexes, éventuellement dans des environnements dynamiques avec informations incomplètes ou incertaines. Leur développement va de pair avec les avancées de la puissance des systèmes informatiques.

Henri Farreny

 

 

 

Les livrets Livret-3 Table des matières

 

 

Intelligence Artificielle collective

 

Depuis ses débuts, l'IA s'est essentiellement focalisée sur les théories et techniques permettant la réalisation d'intelligences individuelles. Mais dans la nature, il existe une autre forme d'intelligence – collective celle-là - comme les êtres multi-cellulaires simples, les colonies d'insectes sociaux, les sociétés humaines. Ces sources d'inspiration montrent qu'une forme d'intelligence supérieure peut résulter de l'activité corrélée d'entités plus simples. Dans les systèmes artificiels, ce champ porte le nom d'IA Distribuée ou de Systèmes Multi-Agents, que nous englobons ici dans le terme d'Intelligence Artificielle Collective (IAC).

Vers le milieu des années 1970, une partie de l'IA explorait les potentialités de la distribution des connaissances conduisant à la résolution distribuée de problèmes. La distribution du contrôle est la principale caractéristique d'une deuxième génération de systèmes dans lesquels une seule entité n'a pas le contrôle des autres et ne possède pas une vue globale du système. Mais dès lors, il ne suffit pas d'avoir un tas d'agents pour obtenir un système du même nom ; au même titre qu'un tas de briques n'est pas une maison. Ainsi, le champ d'étude porte actuellement sur les théories et techniques permettant la réalisation d'une activité collective cohérente, pour des agents qui sont par nature autonomes et qui poursuivent des objectifs individuels dans un environnement dont ils n'ont qu'une perception partielle.

Ces agents sont dotés de capacités d'interaction avec les autres agents et leur environnement. Ils sont sociaux dans le sens où ils peuvent communiquer avec les autres. Quand ils réagissent aux événements perçus, ils sont qualifiés de réactifs. Ils sont proactifs s'ils ont la capacité de se définir des objectifs, de prendre des initiatives… Aujourd'hui, les concepts d'autonomie, d'interaction, de dynamique et d'émergence sont de plus en plus pris en compte pour la spécification de ces systèmes, conduisant à des méthodologies de conception spécifiques.

À l'évidence, tout agent qui nécessite une 'intelligence' peut bénéficier de l'apport des autres techniques d'IA présentées dans ce document. Toutefois la spécificité du domaine porte d'une part sur les théories organisationnelles permettant la réalisation d'une 'intelligence collective' sous les contraintes précédentes, et d'autre part les techniques d'interactions entre agents pour gérer tous les imprévus (conflit, concurrence, incompréhension, inutilité, …) survenant nécessairement dans un système ouvert ou dans un environnement dynamique.

L'IAC s'est notamment développée pour faciliter la simulation d'applications distribuées géographiquement, logiquement, sémantiquement ou temporellement. Les plates-formes multi-agents sont des outils privilégiés pour simuler des sociétés d'individus plongés dans un environnement commun, telle une équipe de robots footballeurs. C'est notamment le cas des simulations environnementales où l'on souhaite observer l'influence de comportements individuels sur des phénomènes globaux (pollution, prévision de crues, …).

De plus, l'IAC s'adresse à des applications pour lesquelles il est difficile de concevoir et de valider des logiciels de grande taille avec les techniques classiques de développement. Ainsi, l'IAC est concernée aussi par la conception de composants logiciels qui auront vocation à être réutilisés. L'agentification des logiciels devrait permettre - à terme - de les assembler à partir d'une bibliothèque sans connaître finement leur spécification : à leur charge d'ajuster leurs comportements individuels dans le cadre préalable de la tâche définie par l'application. La technologie agent et multi-agent a vocation à devenir un nouveau paradigme de programmation dans les années à venir.

Ce domaine est aussi motivé par l'évolution des outils informatiques : coût des machines, réseaux de machines, Internet… En effet, Internet est aujourd'hui un autre champ d'investigation privilégié de l'IAC où des agents collaborent dans une activité commune (commerce électronique, recherche d'information, …) sans algorithme de contrôle global. Ce sont souvent des applications appelées systèmes ouverts car le nombre d'agents du système évolue au cours du temps. Cette problématique se retrouve aussi dans le champ de la robotique collective.

Les domaines d'application précédents ont en commun qu'ils situent les agents individuels mais aussi le collectif dans des environnements dynamiques où il faudra faire face à l'imprévu et donc où il faudra s'adapter. Ainsi, les agents doivent avoir la possibilité d'échanger sur leurs problèmes respectifs qu'ils vont nécessairement rencontrer dans leur activité, d'autant qu'ils n'ont qu'une connaissance partielle du monde dans lequel le système évolue. Si les agents n'ont jamais à faire face à des imprévus, alors la technique multi-agent n'est pas requise. Les travaux sur les agents portant principalement sur les interactions, ils se sont inspirés de recherche sur le dialogue humain, notamment les travaux de J.L. Austin et J.R. Searle. Il s'ensuit des tentatives de formalisation des actes de communication et de standardisation (voir FIPA dans la bibliographie).

Un autre axe important de recherches porte sur le modèle d'organisation adéquat à la réalisation de la tâche collective. Il est avéré depuis longtemps qu'il n'existe pas d'organisation idéale et que le changement d'organisation est un moyen de transformer la fonction du système. La question s'aborde ainsi dans trois directions selon les présupposés adoptés :

- Soit l'organisation est un élément maîtrisable du système et alors le système multi-agent apporte des concepts et techniques issus de la théorie des organisations, conduisant à des spécifications de modèles organisationnels.

- Soit l'organisation est un élément non connaissable et il faut donner aux agents des stratégies pour participer à une activité collective cohérente. Les modèles "Beliefs Desires Intentions", ou les réseaux de dépendances entre agents ont été définis pour permettre la mise en oeuvre de telles organisations.

- Lorsque les travaux considèrent simultanément que l'organisation n'est pas connaissable et les protocoles de sortie de crise ne le sont pas non plus, alors c'est du domaine de l'émergence de fonctions collectives cohérentes à partir d'entités ayant des comportements élémentaires, tels les travaux en "emergent computation".

Marie-Pierre Gleizes et Pierre Glize

 

 

 

Les livrets Livret-3 Table des matières

 

 

Formaliser et mécaniser différents types de raisonnement

 

Les raisonnements de sens commun, que l'homme effectue au quotidien, s'accommodent d'informations incomplètes, incertaines, voire incohérentes. Ils lui permettent de rapprocher des situations et de transposer des solutions, de tirer parti à la fois de faits généraux et d'exemples, ou encore d'appréhender de manière qualitative des informations quantitatives.

De tels processus de raisonnement excèdent les capacités de représentation et d'inférence de la logique classique (surtout développée au XXième siècle en relation avec la question des fondements des mathématiques), et de la théorie des probabilités en ce qui concerne certains aspects de l'incertitude. Ceci ne signifie pas pour autant que les raisonnements que fait l'homme en dehors de la déduction mathématique soient totalement dénués de rigueur, ou de valeur pratique. Ainsi l'IA s'intéresse à formaliser différentes formes de raisonnement étudiées depuis longtemps par les philosophes : le raisonnement déductif (utilisé par exemple dans les syllogismes), le raisonnement inductif (ou de généralisation, exploité en apprentissage), ou le raisonnement abductif (qui cherche à expliquer, en termes de causes, une situation observée et qui est à l'oeuvre pour établir des diagnostics), ou encore le raisonnement par analogie. Ce dernier permet à partir d'un répertoire de cas observés, d'extrapoler une conclusion plausible pour une situation rencontrée présentant des similarités avec des cas connus – par exemple deviner le prix possible d'un produit à partir des caractéristiques connues de produits plus ou moins semblables.

L'IA a également formalisé diverses extensions ou affaiblissements du raisonnement déductif, que cela soit pour propager l'incertitude (probabiliste ou non) associée à des informations, ou pour pouvoir produire des conclusions plausibles, en cas d'information incomplète. Ces conclusions plausibles peuvent êtres révisées à l'arrivée d'une nouvelle information. On conclura, par exemple, qu'un animal qu'on sait seulement être un oiseau, vole, car on sait qu'en général les oiseaux volent (tout en sachant aussi que les autruches et les manchots, qui sont des exceptions, ne volent pas). Apprenant ensuite que l'oiseau en question est une autruche, on sera amené à remettre en cause la conclusion précédente. De fait, les règles " si… alors… " qui constituent un format commode pour exprimer des connaissances (même spécialisées), ne spécifient pas toujours explicitement toutes les exceptions des règles. Sinon elles seraient trop lourdes à décrire et requerraient souvent, pour être appliquées, plus d'informations qu'il n'en est de disponible. Un autre dépassement de la déduction classique s'appuie sur l'idée de proximité (une conclusion, fausse à strictement parler, mais proche d'une autre conclusion, avérée quant à elle, sera considérée comme presque vraie), et permet alors d'obtenir davantage de conclusions par interpolation entre conclusions avérées.

On peut aussi vouloir étendre l'inférence déductive à la prise en compte d'informations contradictoires. En effet, les informations dont on dispose viennent souvent de sources multiples, de fiabilités inégales, et leur mise en commun conduit souvent à des incohérences qu'il convient, soit d'éliminer dans des processus de " fusion " d'informations, soit de prendre en compte si on cherche à développer des systèmes capables de proposer des arguments et des contre-arguments en faveur ou à l'encontre d'un même énoncé. Ceci peut se rencontrer notamment dans des situations de dialogue, où chacun ne dispose pas des mêmes informations et cherche à préciser ses informations, et aussi éventuellement à comprendre les intentions de l'autre.

On perçoit la grande variété des problèmes de raisonnement auxquels l'IA s'intéresse depuis un quart de siècle. Parallèlement à des recherches théoriques, de nombreux " systèmes experts " (c.à.d. exploitant des connaissances fournies par des experts), de plus en plus puissants et sophistiqués, susceptibles de proposer des avis, des solutions, des diagnostics, des pronostics, sont développés en pratique. De tels systèmes posent bien sûr des problèmes d'interface avec l'homme (utilisateur, expert, concepteur) pour ce qui est de la représentation et de l'acquisition de l'information. Il faut aussi les doter d'une aptitude à fournir des explications, de façon à pouvoir éclairer les conclusions obtenues par le calcul. Enfin, la façon dont l'incertitude est appréhendée, et est restituée à l'utilisateur, doit également être étudiée du point de vue de la psychologie cognitive.

Salem Benferhat, Claudette Cayrol,
Didier Dubois et Henri Prade

 

 

 

Les livrets Livret-3 Table des matières

 

 

Evaluer des situations, décider, planifier

 

La théorie de la décision (décision multi-critère, décision dans l'incertain, décision de groupe) a été étudiée depuis plus de cinquante ans par des économistes et des chercheurs en Recherche Opérationnelle. Il s'agit pour les premiers de modéliser la prise de décision chez des décideurs "rationnels", c'est-à-dire des agents économiques dont le comportement est en permanence en accord avec des postulats, tandis que les seconds considèrent la décision davantage dans une perspective de problèmes d'optimisation où, par exemple, plusieurs critères interviennent.

Les modèles de la décision ainsi développés, ont pour but le classement des décisions possibles, souvent à l'aide d'évaluations numériques (dont l'usage est justifié par des postulats). Ces méthodes ne permettent pas de remonter aisément aux raisons qui font qu'une décision est meilleure qu'une autre. Par ailleurs, ces modèles supposent souvent la connaissance de fonctions numériques pour évaluer les choix, et de distributions de probabilité pour décrire l'incertitude sur le résultat des actions. Cependant les préférences des agents ne sont pas toujours connues de manière complète (et cohérente !) sous la forme de fonctions d'évaluation. De même, ce qui est connu des résultats possibles des actions peut être de nature qualitative, et ne pas se mettre aisément sous la forme de probabilités précises.

La problématique de la décision n'a pas fait partie des préoccupations centrales de l'IA jusqu'au début des années 90 : l'IA, étant tournée vers la modélisation symbolique et logique du raisonnement, était en effet assez loin des opérations numériques de compromis utilisées en décision. Et ce, même si l'un des pionniers de l'IA n'était autre que le prix Nobel d'économie H. A. Simon. Il apparaît cependant depuis quelques années que l'IA peut apporter à la problématique de la décision des outils permettant une représentation plus souple et plus qualitative de l'information, des préférences, et des buts poursuivis, et propose des formulations qui se prêtent ensuite plus facilement à des possibilités d'explications des décisions proposées. De telles approches s'avèrent utiles pour guider un usager dans ses choix, en lui proposant des solutions répondant à ses préférences, qu'il peut faire évoluer si nécessaire. Un système d'aide à la décision peut aussi s'appuyer sur les résultats connus de décisions prises antérieurement dans des situations similaires à celle où une décision doit être proposée : cette façon d'envisager la décision est très proche du raisonnement à partir de cas développé en IA.

Enfin la planification (qui inclut le suivi d'exécution de tâches) est un problème de décision étudié depuis une trentaine d'années en IA. Il s'agit de déterminer un enchaînement d'actions (le plus simple possible) qui permette d'atteindre un but à partir d'une situation donnée. La planification d'opérations élémentaires pour un robot (ou plus généralement un ensemble de robots) en vue de réaliser une tâche plus globale est l'exemple classique en IA de ce problème, qui peut aussi se rencontrer plus généralement dans l'organisation d'activités complexes. Une des difficultés réside dans le fait qu'une sous-suite d'actions menant à la satisfaction partielle du but recherché peut ne pas constituer un morceau d'une solution permettant de réaliser le but complètement. Depuis le début des années 90, l'utilisation des probabilités ou d'autres modèles de représentation, ont permis d'étendre cette problématique à des environnements incertains (où par exemple une action peut échouer), en prenant en compte des fonctions de coût et la possibilité d'inclure des actions informatives (qui renseignent sur l'état du monde) à chaque étape décisionnelle.

Les situations précédentes ne concernaient qu'un agent isolé (face à un environnement éventuellement incertain). Depuis une dizaine d'années, les chercheurs en IA se préoccupent également de la prise de décision concernant un groupe d'individus. Il faut noter qu'il s'agit de décision centralisée (par opposition à la section ``Intelligence Artificielle collective'' où il s'agit de décision distribuée) : un groupe d'agents, ayant chacun ses préférences propres, doit parvenir à une décision commune. Le critère de qualité de cette décision commune dépend du type d'application considéré : ainsi, pour des problèmes de vote ou plus généralement de recherche de compromis, il est important d'obtenir une solution équitable; alors que pour des problèmes dits d'enchères combinatoires (de plus en plus utilisées en commerce électronique) il s'agit de maximiser le gain total d'un ensemble de vendeurs (centralisés en un ``commissaire-priseur électronique''), en déterminant une attribution optimale de biens aux agents (acheteurs), sachant que chaque agent a au préalable exprimé la somme d'argent qu'il est prêt à payer pour chaque combinaison possible de biens.

Didier Dubois, Hélène Fargier,
Jérôme Lang et Henri Prade

 

 

 

Les livrets Livret-3 Table des matières

 

 

Raisonner sur le changement, le temps et l'espace

 

Un système intelligent possède deux capacités fondamentales. Il s'agit d'une part de la possibilité de percevoir le monde extérieur, et d'autre part de la faculté d'agir sur celui-ci. La perception s'effectue à travers des capteurs, tandis qu'une action est accomplie à travers le contrôle moteur (les effecteurs d'un robot). Dans le langage informatique et dans la théorie du contrôle, ce sont ces capteurs qui fournissent les entrées, tandis que les effecteurs fournissent les sorties. Une instance de ce schéma perception/action est par exemple la communication entre agents. A partir de cette analyse, on obtient l'architecture de base d'un système intelligent si on ajoute comme troisième composante l'état interne dans lequel l'agent se trouve à un instant donné. Les actions entreprises par l'agent sont alors fonction de cet état interne, qui est modifié en fonction des perceptions.

Pour être considéré comme intelligent, l'état interne de ce système doit lui permettre de raisonner. C'est pour cela que dans l'approche standard, cet état interne repose sur une représentation symbolique du monde extérieur, constituée de "faits", c'est-à-dire d'assertions correspondant à ce que l'agent croit être vrai dans le monde. On appelle souvent ces faits internes les croyances de l'agent. Bien sûr, ces croyances sont en général imparfaites (incomplètes, erronées), et de nouvelles perceptions mènent fréquemment à un changement, ou mise à jour, de croyances. A un niveau élémentaire, un agent exécute une action, le plus souvent au sein d'une suite d'actions, que l'on appelle aussi plan. À un niveau plus élevé, l'agent qui exécute une action cherche à atteindre un but, auquel il croit parvenir en exécutant un plan généré préalablement. Ce sont donc ses croyances qui interviennent lorsqu'il planifie, c'est-à-dire qu'il raisonne pour générer un plan d'actions élémentaires à exécuter. Notons qu'un plan peut aussi faire appel aux capacités perceptives à travers des actions communicatives ou des actions de test.

Les formalismes qui ont été proposés dans la littérature pour prendre en compte l'évolution des bases de connaissances (les formalismes de mise à jour et de raisonnement sur les actions) se heurtent à plusieurs difficultés. La plus connue est le fameux problème de la persistance des informations lors d'un changement (problème du "décor") : comment éviter de décrire les non-effets d'un changement ? Aussi surprenant que cela puisse paraître, beaucoup de formalismes nous forcent à préciser que d'allumer mon ordinateur ne modifiera pas l'état de celui de mon voisin. Aujourd'hui on considère généralement que le problème du décor a été résolu dans sa version simple, à savoir que les actions n'ont pas d'"effets de bord" : allumer l'unité centrale de mon PC n'allumera pas son écran. C'est donc l'interaction de ce dernier problème dit "de la ramification" et du problème du décor dans toute sa généralité qui constitue un défi redoutable non encore résolu à ce jour.

L'évolution d'un agent est rythmée par la perception d'objets, événements et faits, et par l'exécution d'actions, les actions n'étant que des événements particuliers. D'autre part, générer un plan signifie déterminer des actions à réaliser ainsi que la suite qu'elles constituent, c'est-à-dire leur ordonnancement temporel. Le temps, paramètre fondamental dans le raisonnement des agents, doit donc être représenté. Comme pour tant de domaines, la nature ontologique du temps ne s'impose pas à nous de façon indiscutable, et différentes approches de la représentation du temps ont été proposées dans la littérature. Un facteur ayant motivé de nombreux développements théoriques concerne la notion de durée des entités temporelles. Soit on fait l'hypothèse que les différents événements (actions et perceptions) sont instantanés (ou que leur composante temporelle peut s'exprimer en termes d'instants), soit on considère leur étendue temporelle comme étant non nulle et irréductible. Cette seconde approche est la seule valable en général si l'agent ne dispose pas d'une horloge interne déterminant un temps "absolu", et ne peut que situer temporellement les uns par rapport aux autres des événements divers comme l'ouverture du robinet, l'eau qui coule, le remplissage du verre et la noyade de la mouche. Les travaux ont montré que les systèmes de raisonnement temporel dits de "calcul d'intervalles" (bien que le terme "intervalle" désigne en mathématique des ensembles convexes d'instants, il s'agit ici d'entités temporelles primitives étendues) sont malheureusement plus complexes que ceux basés sur des instants. Tous les problèmes d'ordonnancement exprimés en termes d'intervalles et qui sont "calculables" ne sont pas à ce jour identifiés et classifiés.

On distingue les actions épistémiques (à effet sur les connaissances) et ontiques (à effet sur le monde physique), en considérant que les premières ont effet uniquement sur les états internes, tandis que les secondes ont des effets sur l'état du monde et s'inscrivent donc dans l'espace environnant le système. Pouvoir raisonner sur ces dernières actions nécessite donc une modélisation de l'espace. Comme pour le temps, on est confronté alors à des choix de représentation. Bien qu'il soit possible de recourir à l'analyse mathématique classique (espace euclidien, coordonnées cartésiennes), beaucoup d'approches ont préféré une modélisation qui soit non seulement plus proche de la cognition humaine mais également plus robuste en présence d'informations incomplètes ou imprécises. C'est pourquoi le raisonnement spatial dit "qualitatif" se base le plus souvent sur un espace à base d'objets, corps ou volumes ayant une extension spatiale perceptible, plutôt que sur les entités primitives abstraites que sont les points et les figures de la géométrie classique. Si les travaux ont beaucoup avancé en ce qui concerne la modélisation des concepts méréotopologiques (inclusion, contact) sur les objets ou les corps, à l'heure actuelle, raisonner de façon qualitative sur des concepts géométriques (distance, alignement, forme...) avec des entités étendues reste un problème difficile.

Andreas Herzig et Laure Vieu

 

 

 

Les livrets Livret-3 Table des matières

 

 

Résumer, apprendre, découvrir

 

Lorsque l'on s'intéresse à la simulation du comportement intelligent de l'homme par une machine, on peut distinguer l'aptitude à comprendre et l'aptitude à apprendre, en supposant que cela soit possible. Le domaine de l'Apprentissage en Intelligence Artificielle est simplement une tentative de simuler avec une machine cette remarquable aptitude à apprendre dont l'homme fait preuve.

D'où les robots qui, après plusieurs tentatives infructueuses pour suivre une piste, apprennent qu'une porte s'est fermée et qu'il faut trouver une autre solution, d'où les logiciels qui induisent, à partir de l'historique des connexions Internet d'un individu, un profil psychologique (Monsieur Untel est un passionné de football, ne s'intéresse que peu à l'actualité internationale et semble rechercher une nouvelle voiture), d'où les programmes qui utilisent l'immense base de données du génome humain, mettent en correspondance différentes observations et finalement "découvrent" que tel gène est responsable de telle maladie.

Nous sommes au coeur de la problématique de l'apprentissage. Reste à savoir le sens précis que nous donnons au mot "apprendre" et c'est le premier challenge de l'informaticien dans ce domaine. D'où l'importance des travaux théoriques fondateurs qui tentent de donner un cadre formel à l'apprentissage par machine. On distingue alors des concepts qui peuvent être appris d'autres qui ne le peuvent pas. Un peu à la manière dont les travaux de Alan Turing distinguent ce qui est calculable de ce qui ne l'est pas ! On s'aperçoit alors, que pour qu'un concept soit " apprenable " il faut qu'il puisse être résumé (un informaticien dirait "compressé") mais évidemment cela n'est pas suffisant. "Apprendre" ce n'est pas seulement "résumer", c'est plus que cela ! En effet, il faut aussi que ce que l'on a appris permette de donner des réponses à des questions autres que celles utilisées dans le processus d'apprentissage : en d'autres termes, "Apprendre" c'est aussi "Généraliser".

Dès lors, il est possible de chercher des algorithmes et donc de construire des programmes qui "apprennent"... Leur exécution sur une machine donne alors l'idée que la machine est à l'école. Surgit alors une nouvelle question : apprendre, oui mais à partir de quoi ? De quelles informations dispose-t-on ? En général, le processus d'apprentissage suppose deux agents au moins : un apprenti et un professeur. Là encore, on s'inspire du modèle humain. Et un processus question-réponse s'engage. En simplifiant un peu, on apprend à partir d'exemples et de contre-exemples. Une large palette de techniques ont alors été développées pour apprendre à partir d'exemples. Les méthodes statistiques, historiquement les plus anciennes, sont très efficaces. Mais des techniques spécifiques à l'Informatique ont été développées à partir des années 80 : les réseaux de neurones qui simulent l'architecture du cerveau humain, les algorithmes génétiques qui simulent le processus de sélection naturelle des individus, la programmation logique inductive qui fait "marcher à l'envers" le processus habituel de déduction, les réseaux bayésiens qui se fondent sur la théorie des probabilités pour choisir, parmi plusieurs hypothèses, la plus satisfaisante.

Et si le professeur est absent ? Et c'est souvent le cas quand on dispose de grandes quantités d'information (par exemple une base de données des personnes atteintes de migraines sur les 5 dernières années) et que l'on cherche à extraire des relations entre ces informations. Par exemple, y a-t-il un rapport entre le fait d'être migraineux et le fait de posséder un téléphone portable ? Et si oui, quel est ce rapport ?

Dans ce cas, où personne ne guide l'apprenti, on parle de fouilles de données, de découverte de lois aussi. Il faut alors adapter les méthodes évoquées plus haut pour tenir compte de l'absence d'exemples qui pourraient nous guider. On peut utiliser des techniques statistiques, mais si l'on dispose d'un nombre insuffisant de données, on se tourne vers des méthodes fondées sur la logique.

On voit qu'il n'y a aucun rapport entre concevoir des machines qui apprennent et utiliser des ordinateurs pour faire de l'enseignement (ceci relève de l'Enseignement Assisté par Ordinateur ou EAO). Aujourd'hui, les machines commencent à apprendre mais les résultats, bien que souvent remarquables, sont encore loin des performances d'un enfant de l'école primaire qui apprend énormément de choses sans que l'on comprenne bien comment. Ce qui signifie qu'il y a encore du travail pour cloner l'homme par une machine. Heureusement !

Gilles Richard

 

 

 

Les livrets Livret-3 Table des matières

 

 

Langue et IA : des interrelations étroites

 

Les êtres humains sont capables de comprendre et de parler une ou plusieurs langues. Cette capacité langagière est indissociable de l'intelligence humaine. Il est donc légitime de se poser la question des rapports qui unissent IA et langue.

Les textes de ce livret soulignent qu'une tâche centrale de l'IA est de formaliser les connaissances et les raisonnements humains. Or la langue est le principal moyen dont nous disposons pour exprimer nos raisonnements et véhiculer nos connaissances. Les messages ou échanges en langue naturelle représentent donc, pour certains chercheurs en IA, un terrain d'observation privilégié. Ainsi, par exemple, l'étude de l'expression de l'espace (à travers les prépositions, les verbes, les noms de localisation, ...) dans la langue permet-elle de faire avancer les études sur le raisonnement spatial, ou bien l'étude systématique de corpus de textes spécialisés permet-elle d'acquérir la connaissance spécifique à un domaine à travers l'étude de l'organisation du lexique spécialisé de ce domaine.

D'un autre côté, si l'on cherche à doter l'ordinateur de capacités ressemblant à celles de l'homme, il est naturel d'envisager de rendre l'ordinateur capable de comprendre, ou en tout cas de traiter automatiquement des informations en langue naturelle, et de le rendre capable de générer des messages en langue naturelle à bon escient. C'est là que l'IA et l'informatique linguistique se rejoignent.

L'analyse automatique du langage est une entreprise difficile qui met en jeu une très grande diversité de modes de raisonnements et de connaissances. En effet, outre le vocabulaire très vaste et en évolution constante et le très grand nombre de constructions grammaticales, le langage abonde en éléments et structures ambigus, en données implicites qu'il faut reconstruire, ainsi qu'en une proportion élevée d'énoncés incorrects grammaticalement mais qui demeurent néanmoins tout à fait compréhensibles.

Pour illustrer la fécondation mutuelle de l'IA et de l'informatique linguistique, prenons les champs de la sémantique et de la pragmatique. Il s'agit de construire une représentation de messages en langue naturelle qui soit manipulable par la machine. Ceci implique la modélisation d'un très grand nombre de phénomènes sémantiques, comme les mécanismes de référence (pronominale, spatiale, temporelle : de là, je te voyais avec ses jumelles), la quantification, les opérateurs complexes (négation, modalités, opérateurs épistémiques, argumentatifs parce que, à cause de), la dynamique générative du langage (production de métaphores, métonymies, glissements ou fluctuations sur les sens établis: des idées rouillées, vendre un Picasso, etc.). En plus des phénomènes liés au sens et aux rapports que les énoncés établissent avec le monde, il est nécessaire de s'intéresser à des phénomènes concernant la mise en contexte de l'énoncé dans une situation de communication. Ainsi, pour le dialogue homme-machine, on cherche à formaliser les actes de langage, à prendre en compte le modèle de l'usager, locuteur ou auditeur, à représenter l'évolution des connaissances et croyances au cours du dialogue, et pour pouvoir générer des réponses, à modéliser la façon de présenter, d'argumenter et d'être coopératif vis-à-vis d'un usager.

Une part croissante de l'informatique linguistique devient une discipline technologique, avec des enjeux majeurs dans l'industrie et dans la société. Elle impose des exigences d'efficacité, de simplicité et d'expressivité dans les mécanismes et dans la représentation de volumes considérables de données. De ce point de vue, les techniques d'acquisition et de modélisation automatique de la connaissance sont précieuses. Tandis que les applications qui gravitent autour de l'indexation automatique, la recherche d'informations, voire la traduction automatique, font un usage encore modéré des techniques de l'IA, d'autres champs tels que le dialogue, le résumé automatique ou les interfaces homme-machine coopératives doivent et font massivement appel aux travaux de l'IA en matière de formalisation du raisonnement.

D'un point de vue fondamental, l'analyse du langage et l'informatique linguistique se sont repositionnées. Partant de représentations et de raisonnements idéalisés, dans la tradition de pensée cartésienne ou de l'esprit - logique pure, de nombreux travaux, s'inscrivant dans une double perspective cognitive et anthropologique, ont montré que nos concepts, mêmes les plus abstraits, sont largement métaphoriques, c'est-à-dire construits par abstraction à partir de représentations concrètes. D'autres travaux, en particulier générativistes, ont montré que le langage apparaît davantage comme une composante instinctuelle qu'une aptitude acquise. Les relations IA - informatique linguistique sont donc en pleine évolution. Un axe qui inclut les paradigmes proposés, entre autres, par Darwin, Turing et Chomsky se construit et se trouve singulièrement mis en lumière : évolution et dynamique créative du langage, calcul, et modélisation par principes et paramètres postulés être instinctuels, implémentés par des contraintes aux dépens de lourds systèmes de règles, postulées acquises.

Myriam Bras et Patrick Saint-Dizier

 

 

 

Les livrets Livret-3 Table des matières

 

 

Indexation multimédia et IA

 

Si les ressources multimédia disponibles aujourd'hui sur ordinateur sont à la fois nombreuses et volumineuses, elles restent souvent d'un accès difficile en raison de l'absence d'index systématique recensant les informations pertinentes sur leur contenu. Il n'est pas toujours possible d'associer manuellement une description textuelle ou quelques mots clés à un contenu multimédia pour faire des recherches ultérieures sur ces informations. Dans ce cas, l'indexation automatique doit prendre le relais.

Les chercheurs impliqués dans le domaine travaillent sur l'ensemble des points de la chaîne qui relie la production du document à la consultation de celui-ci en passant par son encodage et son stockage. Que ce soit pour l'extraction de connaissances sur le contenu des documents, la gestion et la structuration des données produites et leur mise à disposition auprès des utilisateurs, l'IA est de plus en plus fortement impliquée dans la chaîne d'indexation automatique multimédia.

Pour les documents déjà existants qu'il s'agit d'indexer automatiquement, une des étapes les plus importantes consiste à extraire les données descriptives appelées métadonnées. Ces métadonnées sont, par exemple, les segments temporels ou les régions correspondant à un objet important ou pour le moins structurant du document. Cette extraction automatique des méta-données demande la mise en oeuvre d'outils de reconnaissance des formes, ou l'apprentissage de modèles des documents à analyser. On peut ainsi utiliser des modèles dits "stochastiques" qui caractérisent l'évolution dans le temps ou dans l'espace du contenu : en parole, une locution s'exprime par une succession de réalisations de phonèmes ; dans une émission de télévision, telle séquence a toujours lieu avant telle autre. Ces modèles, appris a priori en fonction des objets à reconnaître, permettent ainsi à la machine de localiser tel ou tel évènement. D'autres techniques consistent à exploiter une connaissance experte transcrite à travers une base d'heuristiques. On peut ainsi signaler à la machine que la présence d'un objet dans une image se caractérise par la présence d'une région de telle forme, telle couleur et telle texture. Parfois, cette combinaison entre plusieurs descripteurs de bas niveau ne peut pas être formulée de façon précise et catégorique. On utilise alors les outils de la logique floue pour appréhender des spécifications référant à des propriétés non-tranchées. Par exemple, pour détecter une page de publicité diffusée à la télévision, on peut la caractériser comme étant un segment ayant un montage assez rapide, des mouvements d'objets ou de caméra importants, et présentant visuellement de nombreuses couleurs vives et contrastées.

L'indexation multimédia pose également les problèmes de la représentation, de la structuration et de l'exploitation des métadonnées dans un même système, ou entre systèmes différents. Des choix judicieux et des technologies spécifiques s'imposent afin de gérer une connaissance extraite pas toujours fiable et précise, de construire des index et de définir des distances pour optimiser le temps et la qualité de la recherche d'une information, de traduire ces index en élargissant leur contenu sémantique, d'établir des liens entre eux, d'étudier la nature des structures et des liens pour améliorer l'exploitation des données.

L'exploitation "intelligente" des données va de pair avec l'élaboration d'outils de consultation "savants" susceptibles de s'adapter à différents modes d'accès et à différents types d'usage. De nombreux travaux de recherche ont été ainsi menés, visant à modéliser les intérêts des utilisateurs et à comprendre leur démarche. Ce type d'information, couplé à un mode de représentation symbolique du contenu, peut permettre par exemple de construire dynamiquement des chemins optimaux vers les données recherchées en prenant en compte des considérations ergonomiques et cognitives.

Le domaine d'application de l'indexation multimédia est vaste : il relève aussi bien de l'aide à la production que de l'aide à l'analyse, de la conception d'outils d'archivage que d'outils d'encodage. Même si des solutions ont dû être trouvées dans chaque domaine pour combler des besoins évidents, aucune approche homogène n'avait été jusqu'alors proposée. Il est donc bien ici question de convergence des technologies parmi lesquelles l'IA a un rôle important à jouer.

Régine André-Obrecht et Philippe Joly

 

 

 

Les livrets Livret-3 Table des matières

 

 

La Réalité Virtuelle et l'IA

 

La Réalité Virtuelle propose de nouvelles formes d'interaction entre l'homme et les systèmes. L'avènement de stations de travail en réseau dotées de très fortes capacités graphiques 3D couplées à de nouveaux périphériques de visualisation et d'interaction dont l'usage est intuitif (casque, gant...) permet de fournir à plusieurs utilisateurs les informations sensorielles nécessaires pour les convaincre de leur présence dans un monde synthétique. De plus, la possibilité de manipuler certains aspects de ces mondes virtuels quasiment comme dans la vie réelle offre aux intervenants la possibilité d'utiliser leur expérience et leurs capacités naturelles pour travailler de façon coopérative. Les mondes synthétiques créés et gérés par un système de Réalité Virtuelle Distribuée peuvent donc être virtuellement peuplés par de nombreux utilisateurs qui interagissent, à travers des périphériques spécialisés, avec ces mondes virtuels et en particulier avec des entités autonomes, animées et dotées de comportements complexes : des comportements collaboratifs, mais aussi adaptatifs et pas uniquement réactifs, c'est-à-dire avec la capacité de raisonner et d'apprendre, ou encore cherchant à anticiper la dynamique du monde dans lesquelles elles se trouvent, voire de comportement émergent. Les travaux en réalité virtuelle sont ainsi à la frontière de nombreux domaines : les systèmes (et applications) distribués, les réseaux, la modélisation géométrique et la synthèse d'images, l'interaction homme-système, pour les systèmes en eux-mêmes, mais aussi, les techniques issues de l'intelligence artificielle classique ou de la vie artificielle, pour la gestion des entités (agents) autonomes ou semi-autonomes dotées de comportements.

Un aspect important des travaux en synthèse d'image, en CAO et donc en réalité virtuelle, concerne la modélisation de l'univers virtuel. Le but de cette première étape, cruciale pour la création de mondes 3D complexes, est de fournir une description géométrique 3D de l'univers. Pour faciliter et automatiser cette tâche complexe, mais aussi pour la contrôler, il est nécessaire de gérer des contraintes ou de vérifier des propriétés sur les objets ou sur la scène. Ainsi, la modélisation déclarative et la modélisation par contrainte s'intéressent à des problématiques de l'Intelligence Artificielle, comme le langage naturel et la sémantique des propriétés spatiales et à leur traduction en un ensemble de grande taille de contraintes complexes alimentant des résolveurs pouvant utiliser une exploration de l'espace des solutions soit exhaustive soit stochastique.

Pour la simulation des acteurs comportementaux peuplant les univers virtuels, la problématique est la même pour des applications industrielles de simulation que pour ce qui existe dans les jeux vidéos ou en animation de synthèse pour le cinéma. Des techniques de l'animation de synthèse, de l'intelligence artificielle, de la robotique et de la vie artificielle sont donc utilisées, à travers des systèmes hybrides (à la fois réactifs et délibératifs), pour donner des capacités d'autonomie aux entités comportementales et les doter de facultés d'apprentissage, de réaction, de dialogue (la communication entre agents et avec des avatars), de planification de leurs tâches (et de leurs trajectoires). Les premiers systèmes comportementaux utilisaient des systèmes à base de règles et de moteurs d'inférence, mais actuellement, ils emploient des réseaux de neurones, des systèmes de classifieurs, des algorithmes génétiques et des systèmes multi-agents.

Une des motivations actuelles les plus prometteuses pour la modélisation de ces acteurs de synthèse est de reproduire artificiellement des propriétés du vivant liées à l'adaptation. La première forme d'adaptation considère un point de vue plutôt centré sur l'individu et sur la manière dont celui-ci peut apprendre au cours de sa vie, en fonction de ses différentes conditions environnementales. La seconde est plus axée sur l'espèce et des caractéristiques génétiques qui la composent, et se concentre sur la modélisation des théories de l'évolution et sur la manière dont elles peuvent améliorer les performances des individus en les faisant évoluer. Finalement, la dernière met l'accent sur les phénomènes collectifs et sociaux pouvant apparaître dans des groupes d'individus, tels que les processus de communication ou encore de coopération. Certaines de ces préoccupations sont aussi au coeur de recherches actuelles menées en Intelligence Artificielle.

Les études et les développements autour de la Réalité Virtuelle apportent donc souvent des contributions significatives et originales aux différents domaines évoqués, à travers toutes ces nombreuses interactions.

Yves Duthen et Jean-Pierre Jessel

 

 

 

Les livrets Livret-3 Table des matières

 

 

La place de l'IA dans les sciences

 

 

 

matières
Les livrets Livret-3 Table des matières

 

 

IA et mathématiques

 

Le besoin d'appréhender et de manipuler de manière formelle cette nouvelle entité qu'est l'information dans ses différents aspects, a accru l'intérêt pour certains outils de modélisation mathématique, conduisant quelquefois à de nouveaux usages de notions anciennes, voire au développement, d'abord empirique, de nouveaux outils de formalisation. Cela est vrai pour les sciences du traitement de l'information en général, et pour l'IA en particulier.

Il en est ainsi de la logique. La logique s'intéresse traditionnellement à la formalisation du raisonnement. L'étude du raisonnement mathématique a été à la base du développement de la logique dans la première moitié du XXième siècle. Cela a permis de donner une définition précise de la notion de calcul effectif, constituant ainsi le point de départ de l'informatique. Avec l'IA, d'autres types de raisonnement que celui de mathématiciens sont devenus des sujets importants d'étude. Ainsi, sont apparues de nouvelles techniques permettant l'étude systématique de logiques dites non-classiques, dans lesquelles

- des concepts comme la connaissance, le temps, l'incertitude, ou la croyance sont formalisés,

- des méthodes automatiques de preuve pour ces logiques sont définies,

- ainsi que de nouvelles applications à des domaines aussi variés que la synthèse de programmes et la construction de logiciels sûrs, ou la formalisation de la notion d'agents (également en relation avec la théorie des jeux).

Les probabilités, avec le développement des "réseaux Bayésiens" pour le traitement d'inférences incertaines, ont conduit à un important renouveau des préoccupations algorithmiques dans ce domaine. Les mathématiques concernant les structures discrètes (c'est-à-dire à caractère "discontinu"), les représentations par graphes, les modèles à base du calcul des relations sont très employées.

Le besoin de modèles qualitatifs, a conduit à l'usage de structures algébriques exotiques, où les opérations maximum, ou minimum, remplacent la somme ou le produit de l'algèbre linéaire. A coté des probabilités, de nouveaux cadres de modélisation de l'incertitude sont apparus comme les fonctions de croyance (qui entretiennent des relations avec les ensembles aléatoires), ou la théorie des fonctions de possibilité et de nécessité, qui utilise largement les opérations maximum et minimum, tout comme la théorie des ensembles flous (qui traite de classes et de propriétés aux frontières non-tranchées, où on peut passer graduellement de l'appartenance à la non-appartenance).

Didier Dubois, Luis Fariñas del Cerro et Henri Prade

 

 

 

Les livrets Livret-3 Table des matières

 

 

IA et informatique

 

Le catalyseur qui a conduit à la naissance de l'IA a été l'apparition des premiers ordinateurs, qui fut elle-même précédée par une période florissante pour le développement des fondements logiques des mathématiques, de la théorie de la calculabilité et des automates. L'IA est ainsi apparue en tant que discipline à l'intérieur de l'informatique dans le but de donner à l'ordinateur une nouvelle fonctionnalité celle de "penser".

Les caractéristiques essentielles de l'IA apparaissent plus "nettement" dans la nature même des informations (respectivement des problèmes) et dans la manière de les représenter (respectivement de les résoudre). En effet, les systèmes d'IA ont besoin d'intégrer et de manipuler avantageusement à la fois les informations de type symbolique mais aussi numérique. Ils doivent aussi pouvoir s'accommoder des situations où les informations traitées sont incomplètes, inexactes, voire conflictuelles. Une autre caractéristique de la recherche en IA concerne le développement d'une algorithmique nouvelle pour résoudre des problèmes, comme la planification par exemple.

Sans entrer plus avant dans des considérations théoriques, nous adoptons dans la suite, un point de vue pratique, en donnant quelques exemples des apports réciproques de l'informatique et de l'IA.

Cette nouvelle problématique a permis de développer de nouveaux domaines en informatique comme par exemple, la mise au point de méthodes permettant la mécanisation du raisonnement, ainsi que le développement de méthodes de déduction permettant la preuve automatique de théorèmes, ou encore les nouvelles technologies de l'information (bases de données et Internet), la formalisation de la communication entre l'homme et la machine, le traitement automatique du langage naturel.

Ce type de recherche a permis aussi d'une part, la définition de nouveaux langages de programmation comme les langages objets (qui sont liés aux réseaux sémantiques et distinguent les objets et classes d'objets), les langages fonctionnels (ex. LISP), ou les langages basés sur la logique (comme PROLOG), et d'autre part, d'aborder des problèmes au coeur de l'informatique, comme par exemple, déterminer si un programme est correct, ou en faire la synthèse, sans oublier les systèmes d'aide à la configuration, à l'exploitation et à la maintenance des systèmes informatiques.

Luis Fariñas del Cerro et Lakhdar Saïs

 

 

 

Les livrets Livret-3 Table des matières

 

 

L'IA et les sciences du traitement de l'information

 

Les Sciences du Traitement de l'Information et de la Communication (STIC) sont quelquefois confondues avec l'Informatique, science du calcul, numérique ou symbolique, sur ordinateur (tant dans ses aspects algorithmiques, que logiciels ou matériels). Les STIC, qui certes bénéficient de la puissance calculatoire des machines informatiques, concernent tous les problèmes posés par la manipulation d'un "matériau" dont la spécificité et l'importance se sont affirmées depuis un demi-siècle : l'information.

En effet, l'information existe sous différentes formes (tableaux de données, textes, images, sons,...) et requiert de nombreux traitements de diverses sortes pour être utilisée par l'homme à différentes fins. Ainsi, très schématiquement, on peut distinguer trois grandes familles de traitements qu'on peut souhaiter faire sur l'information :

- i) ceux ayant pour but de l'élaborer, de l'interpréter, c.à.d. de la mettre dans un certain cadre représentationnel afin de pouvoir la communiquer, soit à un usager, soit à un nouveau module de traitement ; il s'agit alors de la "débruiter", de la "lisser", c.à.d. de l'épurer, mais aussi de classifier, de structurer, de résumer l'information, de la présenter sous forme synthétique ;

- ii) ceux ayant pour fonction de la stocker, de la retrouver et de l'expliciter; il s'agit ici notamment de techniques de compression d'information, de langages d'interrogation ayant éventuellement des capacités d'inférence pour pouvoir produire de nouvelles conclusions à partir des informations disponibles, et les expliquer ; ceci suppose de concevoir des interfaces satisfaisantes pour les usagers. Il convient également de sécuriser l'information et d'en réglementer l'accès, ou encore de la "banaliser" si on doit protéger l'anonymat de personnes auxquelles elle réfère ;

- iii) enfin les traitements visant à exploiter l'information dans des environnements statiques ou dynamiques, en général dans une perspective de décision et d'action ; il est alors question de trouver des solutions, éventuellement optimales, à des problèmes exprimés sous forme de contraintes, d'évaluer des situations selon de multiples critères, de proposer des décisions en prenant en compte l'incertitude sur leurs résultats, de piloter automatiquement des systèmes dynamiques, de prédire le comportement de systèmes, d'évaluer leur fiabilité.

Ces différentes préoccupations ont donné naissance depuis les années 40-50 à de nombreuses spécialités, aux noms plus ou moins explicites, qui toutes participent d'une façon ou d'une autre à la problématique des STIC : le Traitement du Signal, l'Analyse de Données, la Reconnaissance des Formes, l'Interaction Homme-Machine, les Bases de Données, la Recherche d'Information, l'Intelligence Artificielle, l'Automatique, la Recherche Opérationnelle, ici grossièrement ordonnées selon leur implication dans les trois familles de traitements qu'on vient de décrire à grands traits. A côté de ces disciplines focalisées sur des questions spécifiques que nous ne préciserons pas davantage ici, il existe aussi des thématiques de recherche transversales, centrées sur le type d'information considéré, comme le Traitement d'Images et la Vision par Ordinateur, ou comme le Traitement du Langage Naturel (par opposition aux langages artificiels de l'informatique), ainsi que la Linguistique Computationnelle.

Signalons enfin des problématiques de recherche qui sont plus centrées sur le développement d'un type d'outils que sur une classe de traitements, mais qui peuvent réunir aussi des communautés de chercheurs : citons par exemple, les Réseaux de Neurones artificiels (pour la classification et l'apprentissage), les Algorithmes Génétiques (une classe de méta-heuristiques utilisée en optimisation), ou la Logique Floue (orientée vers la manipulation de catégories aux frontières mal définies mais plus flexible pour appréhender la réalité). Notons que d'une manière ou d'une autre ces trois exemples tirent leur idée première de paradigmes inspirés du vivant ou de l'humain.

L'IA, comme le suggèrent ses différents paradigmes de recherche, présentés dans ce livret, opère à la confluence des trois familles d'opérations citées plus haut et se trouve ainsi au coeur des STIC. En effet, elle se préoccupe de la manipulation d'informations pour l'essentiel non-numériques, de mécanismes généraux de raisonnement, de résolution de problèmes et d'outils pour l'explication des résultats. Ainsi, l'IA propose-t-elle des outils pour la "fouille" de bases de données afin d'en extraire des connaissances synthétiques ou d'y découvrir des informations cachées, de diagnostiquer des situations, ou d'aider à superviser la conduite de systèmes. Clairement, dans la plupart des applications, l'IA, même quand elle en est une composante prépondérante, n'intervient pas de manière isolée, mais au contraire en relation étroite avec d'autres disciplines des STIC.

La Robotique est un bon exemple de domaine spécialisé où les STIC, et notamment l'IA, ont une place importante. L'IA y est utilisée pour maintenir des représentations dynamiques de l'environnement des robots, les munir de capacités de planification d'actions ou de génération de trajectoires évitant les obstacles, d'interprétation d'images, et éventuellement de communication en langage naturel. Mais les robots sont en général plus que de "simples cerveaux" (spécialisés), puisqu'ils disposent de capteurs et d'effecteurs pour la locomotion et la préhension dont la maîtrise pose aussi de nombreux problèmes de mécanique, d'ingénierie et d'informatique. A la jonction de la Robotique, de l'IA Multi-Agents et de la Réalité Virtuelle, la Vie Artificielle s'intéresse, elle, à l'étude, la simulation ou la réalisation d'êtres animés artificiels capables d'effectuer de manière adaptative des tâches spécialisées.

Didier Dubois et Henri Prade

 

 

 

Les livrets Livret-3 Table des matières

 

 

Sciences de la cognition et IA

Visages multiples d'un projet (presque) unique

 

Quelques mots de présentation sont nécessaires, même si on ne tentera pas ici de cerner complètement l'univers multiple des sciences de la cognition, d'autant qu'elles peuvent recevoir des définitions concurrentes qui trahissent à la fois leur jeunesse et la multiplicité de leurs objectifs. Une définition minimale serait de dire qu'elles ont pour objet de décrire, d'expliquer et le cas échéant de simuler les principales dispositions et capacités de l'esprit humain - langage, raisonnement, perception, coordination motrice, planification..." (Daniel Andler, Encyclop. Universalis, 1989). Même une esquisse aussi ténue suffit à indiquer qu'une telle ambition est fondamentalement transdisciplinaire et qu'elle exige la collaboration de disciplines aussi diverses que la neurophysiologie et la neuropsychologie, la psychologie, la linguistique et la pragmatique, la philosophie de l'esprit, l'anthropologie culturelle... ceci pour la phase de description empirique des phénomènes cognitifs et leur interprétation, la mathématique et la logique pour leur représentation formelle et leur modélisation, enfin l'informatique théorique qui fournit le paradigme fondamentalement computationnel de la cognition et qui de ce fait ouvre la voie à la simulation de certains comportements cognitifs. C'est dans la résolution des problèmes formels et calculatoires que soulève la mise en oeuvre de cette simulation de comportements cognitifs par une machine que réside l'essentiel des tâches de l'IA.

Vu de plus près, ce cadre général révèle pourtant un clivage théorique important entre les deux grandes orientations de la recherche cognitive. On distinguera le cognitivisme "classique", construit autour de la notion de processus mental, dont la représentation s'exprime dans des langages symboliques discrets (comme la logique), et dont la "dynamique" met en jeu les concepts de mémorisation et de traitement de l'information. Les calculs qui réalisent ces processus s'effectuent idéalement dans des architectures computationnelles séquentielles, c'est à dire isomorphes à celle des ordinateurs de type Von Neumann classiques. Son programme porte sur la description des activités mentales caractéristiques de comportements psychologiques et linguistiques aussi divers que la reconnaissance de formes, la compréhension et la production du langage, l'acquisition de connaissances, la conduite de raisonnements et la prise de décisions ou même la manifestation d'états émotionnels.

La conception complémentaire de la précédente, dite "sub-symbolique", est fondée sur un paradigme biologique, attaché comme son nom l'indique à la description des structures et des fonctions neuronales sous-jacentes aux phénomènes mentaux évoqués plus haut, mais aussi à d'autres phénomènes n'accédant pas nécessairement au niveau mental mais néanmoins très importants, par exemple le contrôle du comportement sensori-moteur. Les modèles dans cette approche s'exprimeront surtout au moyen de formalismes du continu comme l'analyse non-linéaire ou les processus markoviens, et leur traitement s'effectuera dans des architectures hautement parallèles du type "réseaux de neurones" ou automates cellulaires.

Une seconde distinction doit être faite selon la conception, en quelque sorte "sociale", dont on affecte l'exercice de l'intelligence. Dans la première, qui a donné naissance à l'IA classique, celle-ci est l'apanage d'un agent cognitif individuel. La seconde architecture cognitive pourrait être qualifiée de "collective" ou "distribuée", puisqu'elle développe de manière plus spécifique une série de recherches sur les techniques de résolution collective de problèmes par des entités appelées "agents" coopérant au sein d'un même système. Ces systèmes, dans lesquels les connaissances, les traitements et le contrôle sont distribués, réalisent une fonction globale qui est par exemple mise en oeuvre pour simuler le comportement de collectivités naturelles aussi diverses que des organismes cellulaires (neuronaux) ou des colonies d'insectes.

Ensemble, ces approches affichent une ambition qui ouvre des territoires nouveaux et assez bouleversants à la pensée scientifique. Il y aurait bien entendu une démesure inquiétante dans cette ambition si elle était prise au pied de la lettre, c'est-à-dire sans les restrictions inséparables de toute démarche scientifique. Le sens des mots varie subrepticement selon qu'ils sont employés dans le langage courant ou dans celui du projet scientifique. Vues de plus près, quelles sont les contraintes associées aux objectifs du projet cognitif? La première exigence porte sur la délimitation au niveau empirique du domaine de l'analyse - le langage, la perception, le raisonnement… - ce qui restreint immédiatement la portée des résultats éventuels à une classe de phénomènes cognitifs. Leur extrême diversité ne permet certainement pas de tirer de conclusions quant à la cognition en général. En outre, il ne faut pas oublier qu'à cette "segmentation" sur des critères empiriques vient se superposer en quelque sorte, pour la plupart des phénomènes cognitifs, la diversité des options théoriques et méthodologiques évoquées plus haut.

Il s'ensuit que la connaissance éventuelle sera doublement circonscrite: par les délimitations a priori et par les choix théoriques selon lesquels est conduite l'étude. On a pu dire que la toile de fond de l'"IA classique" est mentale. Si l'on voulait, comme le fait parfois l'IAD, descendre jusqu'au niveau neuronal, il faudrait être capable de décrire les structures et fonctions cérébrales impliquées dans les processus mentaux considérés, ce qui suppose pour le moins des recherches neuro-psychologiques importantes.

Les formes de l'activité de l'esprit sont confrontées aux formes de la vie sensorielle et cérébrale, mais il ne s'agit plus ici de corrélations behaviouristes sans principes. La révolution conceptuelle apportée par les sciences cognitives tient pour l'essentiel à la nature de la médiation que la théorie de la computation effective (sous ses diverses formes) a permis d'établir entre la sémantique des systèmes symboliques et les opérations programmées sur ces symboles d'une part, l'architecture matérielle des machines et la dynamique des transformations réglées de leurs états internes d'autre part. Entre le software et le hardware, transposés aux structures de l'univers mental et aux processus biologiques associés, l'informatique fondamentale a défini un cadre conceptuel qui permet pour la première fois d'articuler avec rigueur les différents avatars de la cognition et par conséquent de lancer un programme cohérent de recherches expérimentales aussi bien que formelles.

Encore faut-il ne pas faire de confusion : il ne s'agit pas d'assimiler le fonctionnement des machines à celui de notre pensée, mais plutôt, sur la base d'un certain nombre d'hypothèses théoriques, de voir dans quelle mesure la référence aux machines permet, au prix de travaux originaux sur nous-mêmes, d'éclairer le fonctionnement de notre pensée. On se situe là au coeur du débat philosophique très vif sur les relations entre le physique, le biologique et le mental que ces recherches ont contribué à renouveler. Un enjeu majeur pour l'avenir du savoir sur nous-mêmes.

Mario Borillo

 

 

 

Les livrets Livret-3 Table des matières

 

 

L'IA et la théorie des systèmes symboliques

 

Quelles relations entretiennent exactement madame Laetitia Casta, les milliers de statuettes censées représenter une partie de son anatomie, le prénom de " Marianne ", et l'objet ainsi dénommé, lui-même censé représenter la République Française ? Ces relations sont-elles tributaires de propriétés esthétiques de ces statuettes, ou (et) de leur ressemblance réussie avec le " modèle " ? La localisation de ces dernières joue-t-elle un rôle (dans une mairie vs chez un particulier vs dans un entrepôt) ? — Quelles relations précises existent entre une partition musicale et une exécution, et entre de multiples exécutions, de cette partition ? Et entre un tel type de notation et d'autres (chorégraphiques, gymniques, etc.) ? — Comment fonctionne exactement un diagramme, un graphique, un schéma, un plan d'architecte, une carte géographique ? Appellent-ils un mode spécifique de raisonnement à côté du raisonnement de type propositionnel ou visuel ?

" Une enquête systématique sur les variétés et les fonctions des symboles a rarement été entreprise " note N. Goodman dans l'Introduction des Langages de l'art qui constituent justement une telle enquête systématique. Il précise que le terme symbole " recouvre les lettres, les mots, les textes, les images, les diagrammes, les cartes, les modèles, et bien d'autres choses ", et un programme tel que FoR (Forms of Representation, cf. Peterson) comporte effectivement " bien d'autres choses " encore. Et l'on peut être saisi du doute de la pertinence scientifique du groupement des questions indiquées pour commencer, comme de l'homogénéité de cet ensemble de dispositifs notationnels qui semble par exemple hors de portée d'une approche sémiologique post-saussurienne. N. Goodman a initié une problématique sémiologique nouvelle en instituant cette légitimité et cette homogénéité au niveau abstrait des formes de référence et d'identification opérées par les systèmes symboliques, et c'est principalement à ce niveau que l'IA peut être intéressée par, et intéresser, cette discipline puisqu'il met en jeu des modes de représentation, de référence et de raisonnement. Trois aspects illustratifs peuvent être signalés.

Sur le plan de la théorie de la référence, les notations issues de systèmes symboliques doivent satisfaire, pour qu'elles remplissent correctement les fonctions indiquées, des prérequis et contraintes qui garantissent leur univocité et leur efficacité : ne noter que ce qui est constitutif en laissant tout ce qui n'est pas déterminant hors de la notation ; être complètes (tous les cas sont prévus), consistantes (il n'y a pas de contradiction), compactes (il n'y a pas de redondance inutile), etc. Les recherches sur ces points conduisent à identifier et définir formellement des formes originales de référence telle que ressemblance, exemplification, expression, illustration, légendage, ou à redéfinir la relation métaphorique.

En second lieu, les notations symboliques constituent, parmi tous les objets (au sens le plus large du mot) fabriqués par l'homme, des supports de l'exercice de facultés ou capacités cognitives, telles la mémorisation ou l'action. Il s'agit alors de représentations externes (RE) si on les confronte aux représentations internes (RI) à l'esprit/cerveau qui résultent du traitement cognitif de l'information par les êtres vivants. Quelles sont alors les relations de nature logique entre ces deux types de représentations ? Les RI ne sont appréhendables indirectement qu'à travers des hypothèses où les RE peuvent jouer un rôle décisif, bien qu'il soit avéré que les RE ne sont en aucune manière une copie ou une image des RI ; mais par ailleurs, les RE peuvent servir de base à la constitution des représentations des connaissances nécessaires à la mise en oeuvre des raisonnements reconstruits par l'IA ; de plus, les RE, en tant qu'objets physiques, appréhendables sensoriellement, induisent elles-mêmes des RI ...

Enfin, à l'occasion de telles recherches, qui concernent aussi bien les représentations scientifiques que pratiques (en vue de guider l'action) ou encore les productions artistiques, des domaines de l'informatique constituent des champs d'application originaux pour l'IA, comme par exemple la conception de systèmes de visualisation de (structures de) données, de traitements, de résultats, — par exemple sur le web —, eux mêmes éléments d'interfaces " intelligentes " dont les NTIC ont besoin. L'histoire des progrès décisifs en mathématiques ou en chimie induits par des progrès dans les systèmes notationnels eux-mêmes (cf. Dagognet) signalent l'intérêt du sujet.

Jacques Virbel

 

 

 

Les livrets Livret-3 Table des matières

 

 

L'Intelligence Artificielle,

un voyage dans notre culture

 

L'édition de ce livret sur la recherche en IA offre l'occasion d'ajouter une note sur l'évolution de ses représentations dans notre imaginaire. Les premiers signes apparaissent dans la culture occidentale avec la construction des premiers automates.

Le mythe de l'homme ingénieux au point d'inventer une machine douée d'intelligence hante semble-t-il notre esprit d&eagrave;s le XVIIIème siècle avec Vaucanson (1709-1782), homme des Lumières et premier ingénieur de l'ère industrielle. Deux passions l'animent : la mécanique et la médecine. Il construit ses premiers automates, le joueur de flûte, le canard exposés aujourd'hui au Conservatoire des Arts et Métiers à Paris. A l'époque, ses créations intriguent, fascinent, comment pouvait-il dans son projet d'homme artificiel doter sa machine d'intelligence ?

En 1747 Julien Offroy de La Mettrie propose une réponse dans son livre "L'homme-machine", oeuvre interdite qui sera brûlée et obligera l'auteur à quitter les Pays Bas où il s'était réfugié. "S'il fallut plus d'instruments, plus de rouages, plus de ressorts pour marquer les mouvements des planètes que pour marquer les heures ou les répéter ; s'il a fallu plus d'art à Vaucanson pour faire son flûteur que pour son canard, il eût dû en employer encore davantage pour faire un parleur : machine qui ne peut plus être regardée comme impossible, surtout entre les mains d'un nouveau Prométhée". L'idée d'un homme-machine agite le monde des Lumières et oppose violemment ceux qui croient en la part d'immatérialité de l'homme, à son esprit, à son âme.

Un nouveau pas est franchi en 1818 avec le roman "Frankenstein ou le Prométhée moderne" de Mary Godwin Shelley où l'autonomie de la machine, sa capacité à exercer son libre arbitre, vont inspirer toute une lignée de romans d'anticipation. Dans cet esprit s'imaginent aussi "l'Eve future" de Villiers de l'Isle d'Adam en 1886, et un peu plus tard "Le surmâle" d'Alfred Jarry 1902, "Locus Solus" de Raymond Roussel 1914. Le cinéma entre dans l'aventure avec "Le cabinet du Docteur Galigari" de Robert Weine 1919.

Les années 20 connaissent de nouvelles progressions scientifiques dont on retrouve la trace dans la culture. Carel Capek écrit une comédie utopique "R.U.R" où apparaît pour la première fois le mot robot. "[…] Il arrive quelquefois qu'un Robot s'endommage lui-même, parce que cela ne lui fait pas mal ; il fourre la main dans une machine, il se casse un doigt ou la tête…ça lui est égal. Il faut leur donner la douleur : c'est une prophylaxie automatique contre les accidents. […]. Pourquoi ne leur donnez-vous pas une âme ? […] Ce n'est pas en notre pouvoir. […] Cela rendrait la fabrication plus coûteuse."

Mais peut-on mécaniser la pensée et la conscience - serait-ce l'âme ? - au point de les implanter dans une machine ? Qu'est-ce que l'intelligence : de la pensée, de la conscience, du raisonnement, du jugement, de la décision, de l'expérience, du langage, des sentiments, des perceptions, du savoir, du discernement… ? Autant de questions complexes, qui paraissent impossibles à résoudre. Pourtant, en 1950, Turing considéré comme le père fondateur de l'informatique, fait l'hypothèse qu' " à la fin du siècle, l'on pourra parler de machines pensantes sans craindre d'être contredit". Avec le concept de machine de Turing, l'arrivée des premiers ordinateurs, notre intelligence pourrait-elle se ramener à de simples calculs ?

Le film de Stanley Kubrick "2001 l'Odyssée de l'espace" réalisé en 1968 d'après une nouvelle de Arthur Charles Clarke nous fait découvrir un ordinateur, "Carl", cerveau du vaisseau spatial. Il n'a pas l'autonomie de mouvement des humains, mais il est doué de connaissances encyclopédiques et gère toutes les communications. Il prendra le pouvoir (sur les hommes) grâce à son aptitude à mettre en relation des savoirs différents et il décidera seul de ce qui est bon ou mauvais pour lui et les autres. Les interrogations que suscitaient les automates de Vaucanson sont toujours d'actualité. "Le problème de Turing", roman de science-fiction de Harry Harrison et Marvin Minsky (un des fondateurs de l'Intelligence Artificielle), édité en 1992, pose clairement la question de l'humanité chez l'homme et la machine. Il est notable que dans ce roman, la machine devienne plus humaine que son créateur.

Les univers oniriques proposés par le cinéma, la littérature et l'art alimentent nos opinions sur la science et notre devenir. Dans la lignée de Frankenstein, les romans d'anticipations sont peuplés d'hommes-machines, d'hommes bioniques et de robots qui dirigent le monde. L'homme n'a plus de raison d'être, sinon de servir ce nouveau monde ou de tenter de s'en extraire. L'Intelligence Artificielle peut aussi apparaître sous des formes plus complexes, comme la logique froide d'un système d'organisation produit par l'homme et dont il est devenu l'instrument. Un dernier genre renverse le sujet. Le cinéma comme la littérature et l'art deviennent de ce fait des machines à explorer notre propre logique. L'Intelligence Artificielle devient le langage, l'écriture, le scénario. La logique de la pensée et la construction d'arborescences sont autant d'états de notre esprit qui oscille entre perte de sens et organisation de l'image de nous-même.

Le jeu nous met en abîme. Les artefacts sont si rapides, si efficaces, si autonomes… Serions-nous ordonnés, maîtrisés, commercialisés, chosifiés ? Se pose ainsi l'ultime question de notre propre nature et de notre aptitude à dépasser ce que l'on invente. La mécanisation de la pensée ouvre un monde que l'on invente à notre guise, un peu comme dans les livres à parcours multiples " dont vous êtes le héros ".

Charlie Chaplin dans "Les Temps Modernes" pose la question de l'homme réduit à l'appendice de la machine. La littérature contemporaine et l'industrie du spectacle esquissent discrètement l'idée que nous pourrions être nous-mêmes des intelligences artificielles au service d'une cause encore inconnue et inaccessible.

Mais toujours est-il vrai que l'imagination seule aperçoit que c'est elle qui se représente tous les objets, avec les mots et les figures qui les caractérisent ; et qu'ainsi c'est elle encore une fois qui est l'âme, puisqu'elle en fait tous les rôles.[…] Par elle, les sciences fleurissent, les arts embellissent, les bois parlent, les échos soupirent, les rochers pleurent, le marbre respire, tout prend vie parmi les corps inanimés (Julien Offroy de La Mettrie).

Catherine Gadon
Responsable du Service Culture de l'UPS

 

 

 

Les livrets Livret-3 Table des matières

 

 

Pour conclure ... sur une ouverture

 

Ce livret veut offrir un panorama des grandes problématiques de l'IA aujourd'hui. Comme on peut s'en rendre compte, les recherches en IA depuis près de cinquante ans ont permis de mieux comprendre, de formaliser, de faire exécuter à des machines des tâches qui semblaient être l'apanage de l'intelligence humaine, comme des tâches de raisonnement, d'explication et de résolution de problèmes, comme pour le diagnostic, la planification, l'aide à la conception, à la prévision ou à la décision, l'analyse ou la génération de textes ou de dialogues en langage naturel ... Cette liste, on le voit, est longue et diverse, et il est remarquable que les machines utilisent souvent des méthodes génériques pour atteindre leurs objectifs.

La puissance multipliée des ordinateurs, le développement de nouvelles architectures matérielles, par exemple, rendent envisageables le traitement et la résolution pratique de problèmes toujours plus difficiles. L'émergence de nouveaux domaines pour l'informatique et les sciences du traitement de l'information, ouvre de nouveaux défis à la recherche en IA. On peut citer par exemple, la sphère Internet, le web, le commerce électronique, etc... Qui a utilisé un moteur de recherche se rend compte de la nécessité d'une "recherche intelligente" de l'information. Comment organiser et traiter ces gigantesques masses d'informations? Comment en extraire les connaissances pertinentes pour les problèmes posés ? C'est à l'évidence un domaine où les recherches en IA trouvent un important champ d'applications. Notons aussi que par leurs retombées dans des domaines aussi divers que l'aéronautique et l'espace, l'agriculture, la production industrielle, la banque et la finance..., l'informatique a réussi à élargir considérablement son impact dans la transformation en profondeur des activités humaines.

On peut dire que l'IA, en modélisant et en simulant des fonctions cognitives particulières, permet de faire effectuer des tâches réputées intelligentes à des machines, de manière généralement à la fois plus fiable et plus rapide que ne le ferait l'homme, en exploitant généralement de grandes quantités d'informations. Cela donne lieu à des réalisations qui peuvent être spectaculaires, mais qui peuvent aussi perturber l'idée qu'on se fait de notre intelligence.

Bien sûr de grands progrès restent encore à faire en IA pour créer des systèmes disposant de gammes plus étendues de capacités cognitives et aussi plus conviviaux pour les usagers. Sans doute, est-il parfaitement envisageable que l'IA réalise des systèmes capables d'une certaine introspection (c. à d. de s'observer dans des tâches de raisonnement et d'acquérir ainsi des métaconnaissances), d'analyser ou de simuler des émotions, ou même d'écrire des poèmes ou de réaliser des oeuvres graphiques obéissant à certaines contraintes ou principes. Mais tout ceci restera encore assez loin d'une pensée autonome, consciente d'elle-même, capable de jongler avec les représentations qu'elle se fait du monde, de se comporter de manière ludique, non purement réactive, de créer de manière non dirigée, de rêver.

Mario Borillo, Luis Fariñas del Cerro et Henri Prade

 

 

  

 

 

Les livrets Livret-3 Table des matières

Quelques références

 

P. Balbiani, V. Dugat, L. Fariñas del Cerro & A. Lopez. Eléments de Géométrie Mécanique. Paris : Hermès, 1994.

R. Bellman. Artificial Intelligence. Can Computers Think ? Boyd & Fraser Pub. Comp., Boston, 1978.

H. Bestougeff, et G. Ligozat. Outils logiques pour le traitement du Temps. Masson, Paris, 1989.

E. Bonabeau, G. Theraulaz. Intelligence Collective, Hermès, 1994.

P. Braffort. L'Intelligence Artificielle. Collection La Science Vivante, P. U. F., Paris, 1968.

M. Borillo. Informatique pour les Sciences de l'Homme. Limites de la formalisation du Raisonnement ; Mardaga Editeur, Bruxelles, 1984.

M. Borillo, H. Prade, J.-L. Soubie. Les Machines Pensent-elles? (autour d'un spectacle de J.-F. Peyret). Livret n°1 du Service Culture de l'Univ. P. Sabatier, Toulouse, 2000.

J. Charlet, M. Zacklad, G. Kassel, D. Bourigault (Coordinateurs). Ingénierie des Connaissances : évolutions récentes et nouveaux défis. Eyrolles, Paris, 2000.

L. Couffignal. Les Machines à Penser. Les éditions de Minuit, 1952; 2nde édition refondue et corrigée, 1964.

F. Dagognet. Écriture et Iconographie. Vrin, 1973.

E. Diday, Y. Kodratoff, T. Brito, et M. Moulet. Induction symbolique-numérique à partir de données. Editions Cépadues, 2000.

D. Dubois, H. Prade. Théorie des Possibilités. Application à la Représentation des Connaissances en Informatique. Masson, Paris, 1987.

H. Farreny. Recherche Heuristiquement Ordonnée. Algorithmes et Propriétés. Masson, 1995.

H. Farreny, M. Ghallab. Eléments d'Intelligence Artificielle. Hermès, 1985.

E. A. Feigenbaum and J. Feldman. Computers and Thought, McGraw-Hill Book Company, New York, 1963.

Foundation for Intelligent Physical Agents FIPA: Specification – http://www.fipa.org.

D.M. Gabbay, P. Smets (eds.) Handbook of Deafeasible Reasoning and Uncertainty Management Systems. (6 vol.), Kluwer Acad. Pub., 1998-2000.

N. Goodman. Les Langages de l'Art (trad. : J. Morizot), Jacqueline Chambon, 1990 [1968].

H. Harrison, M. Minsky. Le Problème de Turing, Livre de Poche, 1994, Traduction de The Turing Option, 1992.

J.-P. Haton, N. Bouzid, F. Charpillet, M.-C. Haton, B. et H. Lâasri, P. Marquis, T. Mondot, A. Napoli. Le Raisonnement en Intelligence Artificielle - Modèles, Techniques et Architectures pour les Systèmes à Bases de Connaissances. InterEditions, 1991.

L. Iturrioz, A. Dussauchoy (coordonnateurs). Modèles Logiques et Systèmes d'Intelligence Artificielle. Hermès, 1990.

Knowledge Engineering and Management: The CommonKADS methodology. MIT Press, December 1999.

J.-L. Laurière. Intelligence Artificielle : Résolution de Problèmes par l'Homme et la Machine. Eyrolles, Paris, 1986.

Léa Sombé (collectif). Reasoning Under Incomplete Information in Artificial Intelligence. John Wiley and Sons, 1990. Version française, Teknéa, Toulouse, 1989.

Léa Sombé (collectif). Revision and Updating in Knowledge Bases. John Wiley and Sons, 1994.

P. McCorduck. Machines who think. W. H. Freeman and Company, San Francisco, 1979.

M. Minsky. La Société de l'Esprit. Traduction de The Society of Mind, Simon & Schuster, 1987, InterEditions, 1988.

T. Mitchell. Machine Learning. McGraw-Hill, 1997.

N.J. Nilsson. Artificial Intelligence : A New Synthesis. Morgan Kaufmann, 1998.

G.M.P. O'Hoare, N.R. Jennings. Foundations of Distributed Artificial Intelligence. J.Wiley & Sons, 1996.

O. Peterson (ed.) Forms of Representation. Intellect, 1996.

J. Pitrat. Métaconnaissance. Futur de l'Intelligence Artificielle. Hermès, 1990.

B. Raphael. The Thinking Computer, W.H. Freeman, San Francisco, 1976.

H. Simon. The Sciences of the Artificial, MIT Press 1969 & 1981.

W. Skyvington. Machina Sapiens. Essai sur l'Intelligence Artificielle. Le Seuil, 1976.

O. Stock, (ed.). Spatial and Temporal Reasoning. Kluwer, Dordrecht, 1997.

G. Tisseau. Intelligence Artificielle. Problèmes et Méthodes. PUF, Paris, 1996.

G. Weiss (ed.) Multiagent Systems. The MIT Press, 1999.

P. H. Winston. Artificial Intelligence. Addison-Wesley Pub. Comp., 1977.

 

 

 

Les livrets Livret-3 Table des matières      

 

 

Intervenants


Régine André-Obrecht, UPS   11
Nathalie Aussenac, UPS   3
Salem Benferhat, CNRS   6
Mario Borillo, CNRS   16, 19
Myriam Bras, UPS   10
Claudette Cayrol, UPS   6
Didier Dubois, CNRS   6, 7, 13, 15
Yves Duthen, UPS   12
Luis Fariñas del Cerro, CNRS   13, 14, 19
Hélène Fargier, CNRS   7
Henri Farreny, INPT   4
Catherine Gadon, Culture, UPS   18
Marie-Pierre Gleizes, UPS   5
Pierre Glize, CNRS   5
Andreas Herzig, CNRS   8
Jean-Pierre Jessel, UPS   12
Philippe Joly, UPS   11
Jérôme Lang, CNRS   7
Henri Prade, CNRS   1, 2, 6, 7, 13, 15, 19
Gilles Richard, UPS   9
Patrick Saint-Dizier, CNRS   10
Lakdhar Saïs, UPS   14
Jean-Luc Soubie, INRIA   3
Laure Vieu, CNRS   8
Jacques Virbel, CNRS   17


UPS Université Paul Sabatier
CNRS Centre National de la Recherche Scientifique
INPT Institut National Polytechnique de Toulouse
INRIA Institut National de Recherche en Informatique et Automatique



WebDeveloper@, Dernière Mise à jour : 1 juillet 2002