Abdel-Illah Mouaddib

Ses 4 Articles :


Mots-clefs : Planification décentralisée
Résumé : RésuméNous nous intéréssons au problème du contrôled’un processus décisionnel de Markov décentralisé et partiellement observé (DEC - POMDP) àhorizon fini. Nous introduisons une nouvelle approche heuristique qui s’appuie sur les observations suivantes : (1) l’opération élémentairede programmation dynamique, consistant à lagénération exhaustive et l’évaluation de toutesles politiques jointes, est extrêmement prohibitive ; (2) bon nombre des politiques jointesainsi générées sont inutiles pour un contrôle optimal ou presqu’optimal. Suivant ces observations, nous proposons la première technique deconstruction incrémentale de politiques jointesà base d’états de croyance, PBIP, permettantd’éviter ces calculs intensifs. L’algorithme PBIPsurpasse les performances des meilleurs techniques approximatives actuelles sur de nombreux exemples de la littérature.

Mots-clefs : jeux stochastiques, MDP, value iteration, théorie des jeux, coordination
Résumé : Dans ce papier, nous nous focalisons sur l'une des approches existantes : les jeux stochastiques à somme générale, pour faire interagir des agents autonomes. L'équilibre de Nash a été choisi comme moyen d'obtention de la politique jointe. La validation a été réalisée sur un exemple Muse tratif et l'évaluation a été effectuée en com- parant avec un modèle centralisé (MMDP). Les résultais préliminaires montrent l'intérêt duqualité de la solution en fonction de la taille del'espace d'états.

Mots-clefs : Interaction, coordination, planification multiagent
Résumé : et article introduit DyLIM 1, un modèle pourla représentation de problèmes de type DECPOMDP. Ce modèle, qui permet une représentation basée interactions de ce type de problèmes,relâche l’hypothèse de dépendances fortes etpermanentes des approches existantes et considère qu’un agent interagit seulement quelquefois, avec quelques agents, sans aucune structure spécifique. Cela nous permet de représenterle problème multiagent comme un ensemble deproblèmes individuels (parfois interdépendants)et donc de casser la complexité. Nous introduisons deux algorithmes de résolution différentspour ce modèle et nous évaluons ceux-ci surun ensemble de benchmarks classiques dans ledomaine. Nous montrons ainsi les bénéfices denotre approche et sa capacité à calculer des politiques quasi-optimales pour des problèmes impliquant beaucoup d’agents.

Mots-clefs : Architecture multi-robots, Processus décisionnels probabilistes, Négociation
Résumé : e papier présente une architecture multirobots permettant une allocation automatiquede plusieurs objectifs sur une flotte de robots.Le challenge consiste à rendre des robots autonomes pour réaliser coopérativement leur mission sans qu’un plan soit prédéfini. Cette architecture, appelée PRDC, est basée sur 4 modules (Perception, Représentation, Délibérationet Contrôle). Nous nous intéressons plus particulièrement au module de délibération en considérant le problème des voyageurs de commercecoopératifs dans un environnement incertain.L’objectif des robots est alors de visiter un ensemble de points d’intérêt représentés dans unecarte topologique stochastique (Road-Map). Leprocessus proposé pour la construction des politiques collaboratives est distribué. Chaque robot calcule ses politiques individuelles possiblesde façon à négocier collectivement l’allocationdes points d’intérêt entre les membres de laflotte. Enfin, l’approche est évaluée via un important nombre de simulations.