Nicolas Cointe

Ses 6 Articles :


Mots-clefs :
Résumé :

Mots-clefs : Agent (architecture), Modèles decomportement agent, Éthique
Résumé : L’usage croissant des systèmes multi-agentsdans divers domaines soulève la nécessité deconcevoir des agents capables de prendre desdécisions s’appuyant sur des principes éthiques.De plus en plus de travaux proposent detelles approches. Toutefois, ces Systèmes considèrent principalement une perspective centréesur l’agent et mettent de côté le fait que cesagents sont en interaction avec d’autres agents,artificiels ou humains qui utilisent d’autresconcepts éthiques. Dans cet article, nous nousintéressons à ce problème en proposant un modèle de jugement éthique qu’un agent peut utiliser pour juger à la fois de son propre comportement et de celui des autres agents au seinde systèmes multi-agents. Ce modèle est basésur une approche rationaliste et explicite quidistingue théorie du bien et théorie du juste.Une preuve de concept implémentée en AnswerSet Programming est fournie pour illustrer cesfonctionnalités.

Mots-clefs : Architecture d’agent,Modèles decomportement agent,Éthique computationelle
Résumé : Dans le domaine de la décision autonome, laprise en compte de la dimension éthique desdécisions est généralement centrée sur l’agent,en laissant de côté sa dimension sociale. Or,l’éthique semble être une notion centrale influençant les interactions sociales entre individus. Dans cet article, nous proposons un modèle permettant à des agents de se construire uneimage du comportement éthique et moral desautres afin de le prendre en compte dans leursinteractions. Fondé sur une approche rationaliste et explicite, ce modèle distingue l’éthiquede la moralité et permet d’aboutir à l’établissement ou non d’une relation de confiance. Nousillustrons ces fonctionnalités dans une preuve deconcept dans le domaine de la gestion d’actifsfinanciers implémentée à l’aide de la plateformeJaCaMo.

Mots-clefs : Architecture d’agents, confiance
Résumé : L’usage de systèmes multi-agents dans un grandnombre de domaines applicatifs soulève la nécessité de proposer un modèle de jugement permettant aux agents de prendre en compte unensembles de connaissances sur la morale etl’éthique. Cette expérimentation illustre la miseen œuvre et le paramétrage d’un modèle de jugement dans le carde de la gestion d’actifs financiers. L’observation de l’évolution de ce Systèmes permet d’évaluer l’influence de la moraleet de l’éthique confiés à l’agent sur son comportement et sur ses relations avec les autres agentsdu Systèmes. Ces agents et l’environnement sontimplémentés à l’aide du framework JaCaMo.

Mots-clefs : Confidentialité, Modèles de comportement agent, Planification
Résumé : RésuméLorsque des agents agissent dans un Systèmesoù leur comportement est au moins partiellement observable par d’autres agents, des techniques de reconnaissance de plans peuvent permettre d’inférer leurs objectifs et compromettreleur stratégie ainsi que la vie privée d’éventuelsutilisateurs. Cet article se positionne du pointde vue de l’agent observé et propose une fonction permettant à un agent d’évaluer la quantitéd’information transmise au travers de son comportement à un éventuel observateur. Une tellefonction fournit une mesure de l’impact de lasélection d’un plan sur l’offuscation ou la transparence des objectifs de l’agent. Cet article explore enfin la problématique de la justificationd’un comportement volontairement offusqué àdes agents de confiance. Une preuve de conceptaccompagne la présentation de ce modèle afind’illustrer sa mise en œuvre au sein d’un Systèmescomposé d’agents BDI.

Mots-clefs : Confiance,autoorganisation,confidentialité.
Résumé : De tels cas de figures peuvent se présenter par exempledans des situations présentant une dimension morale [6]et où des actions, bien qu’exécutables et permises, peuventrendre leurs auteurs désirables ou non au sein d’un collectif. Notons que nous traitons ici de cas où les agents ne disposent d’aucune preuve sur les intentions des autres agentsmais emploient des techniques proposées dans la littérature afin d’évaluer avec une certitude suffisante, les objectifs d’un agent.Sélectionner des partenaires semblant partager des objectifs similaires peut se faire, de manière classique, àl’aide de modèles de confiance [21] afin de laisser le Systèmes s’auto-organiser. L’avantage d’un tel modèle est qu’ilest construit de manière décentralisée, par les agents, ense fondant sur leur expérience individuelle –tirant profitd’observations, connaissances et raisonnement propres àl’agent– et éventuellement sur des expériences transmisespar un Systèmes de réputation [26].Afin de pouvoir raisonner sur les objectifs des autresagents, la littérature propose déjà un ensemble de techniques diverses, que nous regroupons dans cet article ausein du concept plus général de reconnaissance d’objectifs, permettant d’inférer, à partir d’observations, le butle plus vraisemblable compte tenu du comportement d’unagent observé. Les méthodes de reconnaissance d’objectif ont démontré ces deux dernières décennies leur intérêtdans divers domaines applicatifs nécessitant une coopération entre agents autonomes et humains, tels que l’apprentissage de routines comportementales pour la surveillancede personnes âgées à domicile [14], ou bien pour la coopération d’agents autonomes entre eux, par exemple dansle cas d’un groupe de robots devant coordonner leurs déplacements en minimisant les communications [4]. La reconnaissance d’objectifs est également utile dans un cadrecompétitif, afin d’anticiper et éventuellement contrer lesbuts d’un adversaire. Par exemple, leur usage a montré sapertinence pour la détection de comportements humainsdangereux dans une foule [22], ou la déduction de la stratégie employée par un adversaire dans des jeux vidéos [15]ou des compétitions de football robotiques [16].Cependant, tenir compte de l’observation de leur comportement, et de la présence d’un Systèmes de confianceDans certains systèmes multi-agents, en particulier des