Des chercheurs de l’UCLA, de l’UCSD, de l’Université de Pékin et de l’Institut général d’intelligence artificielle de Pékin (BIGAI) ont récemment développé un nouveau système d’IA capable d’expliquer leurs processus de prise de décision aux utilisateurs.

Une équipe de chercheurs a créé un nouveau système d’IA capable d’expliquer ses procédures de prise de décision à des utilisateurs non informaticiens. Le système peut représenter un nouveau développement dans le développement de l’IA qui est plus fiable et compréhensible. Le domaine de l’IA explicable vise à établir une relation de confiance collaborative entre les robots et les humains.

L’objectif de XAI est d’accroître la collaboration et la confiance entre les humains et les robots. Le projet DARPA XAI a été un excellent catalyseur pour le développement de ce domaine d’étude. L’équipe a examiné comment les systèmes explicables peuvent affecter les perceptions des utilisateurs et la confiance dans l’IA lors des interactions homme-machine. Les chercheurs analysent principalement des modèles de tâches de catégorisation, démontrant comment les systèmes d’IA prennent des décisions pour l’utilisateur. Le paradigme de « l’utilisateur actif de la machine passive » exige que les utilisateurs vérifient constamment les systèmes XAI pour comprendre le raisonnement derrière les jugements de l’IA.

Des chercheurs ont mis au point un système qui vise à réaliser ce qu’on appelle « l’alignement des valeurs ». Un robot ou une machine peut déduire les raisons derrière les actions ou les conclusions d’un utilisateur humain. Cela peut grandement améliorer la communication et l’interactivité entre les humains et les robots.

Les chercheurs ont créé un jeu appelé “Scout Exploration” dans lequel les joueurs coopèrent pour accomplir des missions afin de former et d’évaluer leur système XAI. La nécessité pour les humains et les robots d’aligner leurs soi-disant «fonctions de valeur» est l’un des éléments les plus cruciaux du jeu.

Source : https://www.science.org/doi/10.1126/scirobotics.abm4183

Selon les chercheurs, une collection de robots peut détecter leur environnement dans le jeu, simulant des applications du monde réel où l’objectif est que les robots fonctionnent de manière indépendante pour réduire le besoin d’intervention humaine. L’utilisateur a reçu une fonction de valeur spécifique, représentée par la pondération de certains paramètres, car l’utilisateur humain ne peut pas interagir directement avec l’environnement.

Dans le jeu d’exploration scout, l’équipe de robots doit faire une inférence car elle n’a pas accès à la fonction de valeur fournie aux utilisateurs humains. Le robot et l’équipe humaine doivent déduire cette valeur l’un de l’autre pour terminer la mission car elle est difficile à expliquer et à communiquer.

L’équipe de robots doit essentiellement comprendre la fonction de valeur des utilisateurs humains en se basant uniquement sur la rétroaction humaine pour accomplir des tâches en “scouting scout”. Les utilisateurs humains peuvent fournir des commentaires qui aident les robots à s’améliorer et les orientent vers la réponse appropriée à mesure qu’ils se familiarisent avec leurs estimations de valeur actuelles.

Le système développé par les chercheurs a démontré des résultats remarquables lors des premières évaluations, entraînant l’alignement immédiat et interactif des valeurs dans le jeu d’exploration Girl Scout. L’équipe a constaté que si les utilisateurs pouvaient percevoir avec précision les fonctions de valeur du robot en cours de partie, le robot s’alignait sur la fonction de valeur de l’utilisateur humain dès 25 % du jeu.

La vraie valeur de l’utilisateur sert de point d’ancrage pour un alignement de valeur bidirectionnel formé par la convergence de la valeur des robots vers les vraies valeurs de l’utilisateur et l’estimation par l’utilisateur de l’importance des robots pour les valeurs actuelles des robots. L’approche du chercheur met en évidence la nécessité de construire des machines intelligentes qui apprennent et comprennent nos intentions et nos valeurs par le biais d’interactions, ce qui est essentiel pour éviter de nombreuses histoires de science-fiction dystopiques dépeintes dans les romans et sur grand écran.

Les systèmes XAI impliquent des robots intelligents ou des assistants interagissant activement avec les personnes, partageant leurs processus et améliorant leurs performances en réponse aux commentaires des utilisateurs. La dernière étude de cette équipe d’universitaires apporte une contribution substantielle à l’ensemble des connaissances axées sur la création d’une IA plus intelligible.

L’alignement des valeurs est la première étape vers une collaboration générique entre les humains et les robots. L’alignement des valeurs se produit dans ce travail dans le cadre d’une tâche spécifique. Par exemple, les chercheurs prévoient qu’un seul robot domestique nous aidera dans diverses tâches quotidiennes, plutôt que d’acheter plusieurs robots, chacun ne pouvant effectuer qu’une seule tâche.

L’équipe de recherche souhaite également appliquer notre cadre à d’autres tâches réelles et robots dans nos études ultérieures. Au-delà des valeurs, ils pensent qu’une voie potentielle serait de combiner différentes composantes de modèles mentaux entre humains et robots. Les chercheurs espèrent améliorer la collaboration homme-machine sur plusieurs tâches grâce à leur nouveau paradigme d’IA explicable. En outre, ils prévoient que cette stratégie augmentera la confiance humaine dans les systèmes basés sur l’IA tels que les assistants virtuels, les robots et les assistants intelligents.

This Article is written as a research summary article by Marktechpost Staff based on the research paper 'In situ bidirectional human-robot value alignment'. All Credit For This Research Goes To Researchers on This Project. Check out the paper, project page and reference article.

Please Don't Forget To Join Our ML Subreddit


Je suis consultant stagiaire chez MarktechPost. Je me spécialise en génie mécanique à l’IIT Kanpur. Mon intérêt se situe dans le domaine de l’usinage et de la robotique. De plus, j’ai un vif intérêt pour l’IA, le ML, le DL et les domaines connexes. Je suis un passionné de technologie et passionné par les nouvelles technologies et leurs usages dans la vie réelle.


Leave a Comment

Your email address will not be published.