Le responsable de l’IA chez Meta publie un article sur la création d’une intelligence artificielle “autonome”

Yann LeCun, vice-président et responsable de l’IA chez Meta, a publié un nouvel article présentant sa vision des IA « autonomes » qui peuvent apprendre et expérimenter le monde de manière plus humaine que les modèles d’apprentissage automatique actuels.

Au cours des près de 70 ans qui se sont écoulés depuis que l’IA a été présentée pour la première fois au public, l’apprentissage automatique a explosé en popularité et a depuis atteint des sommets vertigineux. Pourtant, malgré la rapidité avec laquelle nous en sommes venus à compter sur la puissance de calcul, une question hante le domaine depuis presque aussi longtemps que ses débuts : ces systèmes super-intelligents pourraient-ils jamais gagner suffisamment de sensibilité pour égaler ou même dépasser l’humanité ?

Malgré quelques affirmations récentes douteuses – par exemple l’ancien ingénieur de Google qui a affirmé qu’un chatbot avait pris conscience avant d’être licencié – nous sommes loin de cette réalité. Au lieu de cela, l’un des plus grands obstacles à une situation de maître robot est le simple fait que, par rapport aux animaux et aux humains, les systèmes d’intelligence artificielle et d’apprentissage automatique d’aujourd’hui manquent de raison, un concept essentiel pour développer des systèmes d’intelligence artificielle “autonomes” – c’est-à-dire, Une IA qui peut apprendre en temps réel, directement à partir d’observations du monde réel, plutôt que de longues sessions de formation pour effectuer une tâche spécifique.

Maintenant de nouvelles recherches publié plus tôt ce mois-ci sur Open Review.net de LeCun, propose un moyen de résoudre ce problème en formant des algorithmes d’apprentissage pour apprendre plus efficacement, car l’IA a prouvé qu’elle n’est pas très bonne pour prédire et planifier les changements du monde réel. D’autre part, les humains et nos homologues animaux sont capables d’acquérir d’énormes quantités de connaissances sur le fonctionnement du monde grâce à l’observation et avec une interaction physique remarquablement faible.

LeCun, en plus de diriger les efforts d’IA chez Meta, est également professeur à l’Université de New York et a passé sa longue carrière à développer des systèmes d’apprentissage sur lesquels reposent aujourd’hui de nombreuses applications d’IA modernes. En essayant de donner à ces machines une meilleure vision du fonctionnement du monde, il pourrait être considéré comme le père de la prochaine génération d’IA. En 2013, il a fondé le groupe Facebook AI Research (FAIR), la première incursion de Meta dans l’expérimentation de la recherche sur l’IA, avant de démissionner pour devenir le scientifique en chef de l’IA de l’entreprise quelques années plus tard.

Depuis lors, Meta a eu plus ou moins de succès en essayant de dominer le domaine en constante augmentation. En 2018, ses chercheurs ont formé une IA pour reproduire les globes oculaires dans l’espoir de faciliter l’édition de leurs photos numériques par les utilisateurs. Plus tôt cette année, le chatbot Meta BlenderBot3 (qui s’est avéré étonnamment malveillant envers son créateur), a déclenché un débat sur l’éthique de l’IA et les données biaisées. Plus récemment, l’outil Make-a-Video de Meta est capable d’animer à la fois du texte et des images simples et jumelées dans des vidéos, apportant encore plus de mauvaises nouvelles à l’essor prometteur de l’art généré par l’IA.

Par exemple, les adolescents peuvent apprendre à conduire avec seulement quelques dizaines d’heures de répétition et sans subir eux-mêmes un accident. Les systèmes d’apprentissage automatique, en revanche, doivent être entraînés sur des quantités de données incroyablement importantes avant de pouvoir effectuer la même tâche.

“Une voiture devrait dévaler les falaises plusieurs fois avant de réaliser que c’est une mauvaise idée”, a déclaré LeCun lorsqu’il introduit son travail à l’UC Berkeley mardi. “Et puis quelques milliers de fois avant de comprendre comment ne pas fuir la falaise.” Cette distinction, a poursuivi LeCun, réside dans le fait que les humains et les animaux sont capables de bon sens.

Alors que le concept de bon sens peut se résumer à un jugement pratique, LeCun le décrit dans l’article comme une collection de modèles qui peuvent aider un être vivant à déduire la différence entre ce qui est probable, ce qui est possible et ce qui est impossible. Cette compétence permet à une personne d’explorer son environnement, de compléter les informations manquantes et d’imaginer de nouvelles solutions à des problèmes inconnus.

Pourtant, nous semblons tenir le don du bon sens pour acquis, car les scientifiques n’ont pas encore imprégné l’IA et les algorithmes d’apprentissage automatique de l’une de ces fonctionnalités. Au cours de la même conférence, LeCun a également souligné que de nombreux processus de formation modernes tels que les techniques d’apprentissage par renforcement – une méthode de formation basée sur la récompense des comportements favorables et la punition des comportements indésirables – ne suffisent pas lorsqu’il s’agit de faire correspondre la fiabilité humaine à la réalité. tâches mondiales.

« C’est un problème pratique car nous voulons vraiment des machines avec du bon sens. Nous voulons des voitures autonomes, des robots domestiques, des assistants virtuels intelligents », a déclaré LeCun.

Par conséquent, dans le but de faire progresser la recherche sur l’IA au cours de la prochaine décennie, l’article de LeCun propose une architecture qui fonctionnerait pour minimiser le nombre d’actions qu’un système doit entreprendre pour apprendre et exécuter avec succès une tâche assignée.

Tout comme diverses sections du cerveau sont responsables de différentes fonctions corporelles, LeCun propose un modèle de génération d’intelligence autonome qui serait composé de cinq modules distincts mais configurables. L’une des parties les plus complexes de l’architecture proposée, lemodule de modèle mondialfonctionnerait pour estimer l’état du monde, ainsi que pour prédire les actions imaginées et d’autres séquences du monde, comme un simulateur. Mais en utilisant ce moteur de modèle mondial unique, les connaissances sur le fonctionnement du monde peuvent être facilement partagées entre différentes tâches. D’une certaine manière, cela peut ressembler à la mémoire.

Cela dit, il reste encore beaucoup de travail à faire avant que les systèmes autonomes puissent apprendre à gérer des situations incertaines, mais dans un monde aussi chaotique et imprévisible que le nôtre, c’est un problème que nous devrons sans doute résoudre tôt ou tard. Mais pour l’instant, faire face à ce chaos fait partie de ce qui fait de nous des êtres humains.

Meta n’a pas répondu à une demande de commentaire sur le travail.