Mathieu Guillermin

Ses 3 Articles :


Mots-clefs : SMA embarqués, Géolocalisation,Ultra Large Bande, Analyse multi-agent
Résumé : Cet article présente une solution multi-agent établie à l'aide de la méthode DIAMOND pour une couche logicielle support d'applications utilisant de la géolocalisation ou du suivi de cible. Nous nous intéresserons en particulier au cas des réseaux ultra-larges bandes. L'article décrit la phase d'analyse du système et son implémentation réelle.

Mots-clefs : Éthique,Apprentissage par renforcement,Systèmes MultiAgent,Répartition de l’énergie.
Résumé : L’utilisation croissante d’algorithmes d’Intelligence Artificielle (IA) dans des applications impactant des humains requiert de doter ces Systèmes d’un comportement pouvant être jugé éthique selon des valeurs humaines. Bien que plusieurs approches existent, la question de l’adaptation au contexte, aux préférences et principes éthiques des utilisateurs, reste posée. Nous proposons de traiter cette question par l’Apprentissage par Renforcement Multi-Agent de tels comportements dans des situations différentes. Nous utilisons des tables de Q-Valeurs et des Cartes AutoOrganisatrices Dynamiques pour permettre l’apprentissage adaptatif de la représentation de l’état de l’environnement, ainsi que des fonctions de récompense pour guider l’éthique du comportement. Cette proposition est évaluée sur un simulateur de répartition d’énergie dans des Smart Grids que nous avons développé. Plusieurs fonctions de récompense visant à déclencher des comportements éthiques sont évaluées. Les résultats montrent la capacité de s’adapter à différentes conditions. En sus des contributions sur le plan de l’adaptation éthique, nous comparons notre modèle à d’autres approches d’apprentissage et montrons de meilleures performances par rapport à une approche d’Apprentissage Profond basée sur le modèle Actor-Critic.

Mots-clefs : Éthique, Machine Ethics, Apprentissage Multi-Agent, Apprentissage par Renforcement, Hybride Neural-Symbolique, JugementÉthique
Résumé : e besoin d’incorporer des considérationséthiques au sein d’algorithmes d’Intelligence Artificielle est de plus en plus présent. Combinantraisonnement et apprentissage, cet article propose une méthode hybride, où des agents jugesévaluent l’éthique du comportement d’agents apprenants. Le but est d’améliorer l’éthique deleur comportement dans des environnements dynamiques multi-agent. Plusieurs avantages découlent de cette séparation : possibilité de coconstruction entre agents et humains ; agentsjuges plus accessibles pour des humains nonexperts ; adoption de plusieurs points de vuepour juger un même agent, produisant une récompense plus riche. Les expérimentations surla distribution de l’énergie dans un simulateurde Smart Grid montrent la capacité des agentsapprenants à se conformer aux règles des agentsjuges, y compris lorsque les règles évoluent.