Les universités font de l’éthique un axe clé de la recherche en IA

Alors que l’intelligence artificielle (IA) devient plus courante dans nos vies, de nombreux militants et universitaires ont exprimé des inquiétudes quant à l’éthique de cette technologie, y compris les questions de maintien de la vie privée et de prévention des préjugés et de la discrimination.

Ces inquiétudes se sont propagées dans l’ensemble du domaine de l’IA, amenant même de grandes entreprises telles que Microsoft à élaborer des directives internes pour l’utilisation de cette technologie. En juin, la société a publiquement partagé son nouveau cadre «Responsible AI Standard» qui vise à «maintenir les personnes et leurs objectifs au centre des décisions de conception du système et à respecter des valeurs durables telles que l’équité, la fiabilité et la sécurité, la confidentialité et la sécurité, l’inclusion , transparence. » et responsabilité », selon un article de blog de Microsoft. En raison de ces normes, l’entreprise a désactivé un outil de reconnaissance des émotions de ses services d’analyse faciale par IA suite à des critiques selon lesquelles ce logiciel était discriminatoire à l’égard des groupes marginalisés et n’avait pas été prouvé scientifiquement exact.

Les entreprises ne sont pas les seules organisations à chercher à résoudre les problèmes éthiques liés à l’IA. Plusieurs collèges et universités créent également des centres de recherche, de programmation éducative et d’autres efforts qui aideront à développer une nouvelle génération de scientifiques et d’ingénieurs dédiés à l’utilisation de cette forme de technologie pour améliorer la société.

L’une de ces institutions est l’Université Brown, qui abrite plusieurs projets innovants visant à renforcer l’éthique dans le développement et l’utilisation de l’IA.

“La question de l’éthique et de l’équité dans le développement technologique est incroyablement urgente – elle est en feu”, a expliqué Sydney Skybetter, professeur principal d’arts de la scène et d’études de la performance à Brown, dans un récent communiqué de presse universitaire. Skybetter est l’un des trois membres du corps professoral à diriger un nouveau cours innovant intitulé Choreorrobotics 0101 dans le département d’informatique. La classe permet aux étudiants ayant une formation en informatique, ingénierie, danse et théâtre de combiner leurs intérêts en apprenant à chorégraphier une routine de danse de 30 secondes pour une paire de robots fournis par Boston Dynamics. L’objectif du cours est de donner à ces étudiants – dont la plupart poursuivront une carrière dans l’industrie technologique – l’opportunité d’engager des discussions sur l’objectif de la robotique et de la technologie de l’IA et sur la manière dont elles peuvent être utilisées pour « minimiser les dommages et créer un impact positif ». impact sur la société », selon le communiqué.

“J’ai l’impression que c’est mon travail d’aider les étudiants à comprendre les implications de la technologie que nous créons maintenant et à l’avenir, car ils sont l’avenir”, a déclaré Skybetter. “Je ne peux pas résoudre les problèmes que nous explorons, mais j’espère qu’ils le pourront peut-être.”

Brown abrite également l’ Humanity Centered Robotics Initiative (HCRI), un groupe de professeurs, d’étudiants et de membres du personnel qui cherchent à résoudre les problèmes sociaux grâce à la technologie robotique. L’un de leurs projets consiste à développer des “normes morales” pour les systèmes d’IA afin qu’ils “deviennent des contributeurs sûrs et bénéfiques aux communautés humaines s’ils – comme tous les contributeurs humains bénéfiques – sont capables de représenter, d’apprendre et de suivre les normes”. » selon le site du HCRI. Pour développer ces normes, les chercheurs examinent les processus que les humains utilisent pour comprendre et adhérer aux valeurs communes au sein de la société et les appliquer à l’IA. Cela comprend l’observation de l’environnement et du comportement des membres de la communauté, ainsi que l’apprentissage par le biais d’instructions explicites.

Un autre projet du HCRI se concentre sur la création de technologies robotiques capables de fournir un soutien émotionnel et une assistance aux personnes âgées dans leurs tâches quotidiennes. L’initiative collabore avec le fabricant de jouets Hasbro pour concevoir une nouvelle version de son animatronique Joy for All Companion Pet Cat qui aura des capacités cognitives, communicatives et sensorielles avancées pour mieux répondre aux besoins des utilisateurs âgés.

L’un des efforts les plus larges pour appliquer l’éthique à l’IA se déroule à l’Université Emory d’Atlanta. Début 2022, l’école a lancé l’initiative AI.Humanity, un projet à l’échelle du campus conçu pour créer une communauté interdisciplinaire dédiée à l’intégration de cette technologie dans des domaines au-delà des sciences.

Ravi Bellamkonda

“Nous voulons [AI] incrusté [across disciplines] tout comme nous ferions des maths », explique Ravi Bellamkonda, PhD, doyen et vice-président exécutif des affaires académiques chez Emory. « Nous avons des départements de mathématiques, mais les mathématiques apparaissent en physique, en astronomie, en chimie. Il apparaît en médecine, en économie. Nous pensons à l’IA dans ce sens, qui est au service de nombreuses idées.

Pour atteindre cet objectif, l’université prévoit d’embaucher de 60 à 75 nouveaux professeurs d’IA au cours des trois à cinq prochaines années. Plutôt que d’être isolés dans le département d’informatique, ces professeurs seront déployés dans les neuf écoles Emory pour favoriser la collaboration entre professeurs et accroître les connaissances technologiques dans quatre domaines généraux, notamment :

  • Arts et sciences humaines
  • Commerce et entreprise libre
  • Santé humaine
  • Droit et justice sociale

L’initiative a déjà abouti à neuf nouvelles embauches, ajoutant à l’expérience d’Emory dans le domaine. Parmi ses professeurs figurent Kristin Johnson, professeur de droit Asa Griggs Candler, dont les recherches portent sur la manière dont l’IA peut être utilisée pour protéger les droits légaux, et Anant Madabhushi, professeur de génie biomédical à l’Institut Donnell de l’Emory School of Medicine, qui prévoit d’utiliser L’IA pour améliorer les résultats des patients et lutter contre les inégalités en matière de santé.

Bien qu’il puisse être difficile d’attirer des experts en IA dans l’enseignement supérieur lorsque les entreprises technologiques offrent souvent des salaires nettement plus élevés, le succès de l’université dans le recrutement de professeurs jusqu’à présent est dû au fait que de nombreux universitaires en IA ont la passion de faire la différence, explique Bellamkonda.

“Nous recherchons tous, d’une manière ou d’une autre, un impact et un sens”, dit-il. “Emory positionne l’IA dans le contexte de choses qui [scholars] inquiétant, je pense, a un impact sur notre première année d’embauche.

Dans le cadre d’AI.Humanity, Emory est également en train de rechercher un emploi international pour un nouveau poste doté, la chaire James W. Wagner en éthique; cette personne dirigera les conversations et les collaborations multidisciplinaires sur l’IA qui se déroulent sur le campus.

Un groupe de travail de la faculté travaille également à développer une série de programmes éducatifs sur l’IA et l’éthique, y compris des spécialités majeures et mineures, des activités parascolaires, des ateliers, des opportunités de recherche et plus encore, qui seront ouverts à tous les étudiants. En outre, la faculté a organisé une série de conférences et d’autres séminaires avec des experts en IA pour aider à faire connaître l’initiative.

L’espoir ultime, selon Bellamkonda, est que les étudiants soient suffisamment exposés à l’éducation et à la formation en IA pendant leur séjour à Emory pour comprendre l’importance de l’éthique lors de l’utilisation de cette technologie plus tard dans leur carrière. De cette façon, l’université pourra effectuer des changements bien au-delà du campus.

“Il y a une idée que la technologie viendra et sauvera le monde”, dit Bellamkonda. “Je ne suis pas d’accord. En tant qu’ingénieur, je crois fermement que je veux que les gens qui connaissent la condition humaine soient responsables de l’utilisation et du déploiement de la technologie, et c’est le vision qui guide l’effort d’AI.Humanity.

Lisa O’Malley est rédactrice adjointe pour le APERÇU sur la diversité.

Cet article est paru dans notre numéro de septembre 2022.

Leave a Comment

Your email address will not be published.