L’importance des normes internationales dans l’éthique de l’intelligence artificielle

DALL-E 2une intelligence artificielle (IA) génératrice d’images a attiré l’attention du public avec de superbes portraits de Godzilla en train de manger Tokyo et images photoréalistes d’astronautes à cheval dans l’espace. Le modèle est la dernière itération d’un algorithme texte-image, un modèle d’IA qui peut générer des images basées sur des descriptions textuelles. OpenAI, la société à l’origine de DALL-E 2, a utilisé un modèle de langage, GPT-3et un modèle de vision par ordinateur, AGRAFE, pour former DALL-E 2 en utilisant 650 millions d’images avec des légendes de texte associées. L’intégration de ces deux modèles a permis à OpenAI d’entraîner DALL-E 2 pour générer une large gamme d’images dans de nombreux styles différents. Malgré les réalisations impressionnantes de DALL-E 2, il y a des problèmes importants avec la façon dont le modèle dépeint les gens et comment il a acquis des biais à partir des données sur lesquelles il a été formé.

Problèmes existants avec DALL-E 2

Il y avait des avertissements fréquents et précoces que DALL-E 2 générerait des images racistes et sexistes. La “red team” d’OpenAI, un groupe d’experts externes chargés de tester la sécurité et l’intégrité du modèle, l’a trouvée récurrente les préjugés dans les créations de DALL-E 2. Les premiers tests de l’équipe rouge ont montré que le modèle générait de manière disproportionnée des images d’hommes, sursexualisait les femmes, et jouait sur les stéréotypes raciaux. Lorsqu’on lui a donné des mots comme « hôtesse de l’air » ou « assistant », le modèle a généré exclusivement des images de femmes, tandis que des termes comme « PDG » et « bâtisseur » représentaient des hommes. En conséquence, la moitié des chercheurs de l’équipe rouge ont préconisé de diffuser DALL-E 2 au public sans la possibilité de créer des visages.

Plus à propos:

Technologie et innovation

Robots et intelligence artificielle

Le problème des modèles d’IA discriminatoires est antérieur au développement de DALL-E 2. Des chercheurs extérieurs ont trouvé des problèmes de biais et de stéréotypes implicites dans les modèles utilisés pour former DALL-E 2, et CLIP et GPT-3 ont généré des problèmes insensibles. texte et images. L’une des principales raisons pour lesquelles des modèles tels que DALL-E 2, GPT-3 et CLIP se sont avérés créer des stéréotypes nuisibles est que les ensembles de données utilisés pour former ces grands modèles sont intrinsèquement biaisées, car construites à partir de données collectées à partir de décisions humaines qui reflètent des inégalités sociales ou historiques.

Malgré ces inquiétudes, OpenAI a récemment annoncé qu’il commencerait Vendre une version bêta de DALL-E 2 à une liste d’attente d’un million de personnes. La société a annoncé un mise à jour logicielle avant la version bêta, qui rendait les images de personnes douze fois plus diversifiées et proposait d’ajuster continuellement le modèle pour faire face aux biais à mesure que de plus en plus de personnes l’utilisaient. Cependant, les critiques ont déclaré que ce changement ne pouvait signifier rien de plus qu’un correction superficielle puisqu’il ne s’attaque pas aux préjugés CLIP et GPT-3les modèles utilisés pour construire le DALL-E 2.

Intelligence artificielle et préoccupations éthiques

Les organisations des secteurs public et privé ont publié des modèles qui exacerbent Social et systémique problèmes au sein des États-Unis. Par exemple, COMPAS, un algorithme d’apprentissage automatique utilisé dans le système de justice pénale américain, a été formé pour prédire la probabilité qu’un accusé devienne un récidiviste. COMPAS mal classé Les accusés noirs présentent un risque élevé de récidive à près de deux fois plus que les accusés blancs. L’utilisation d’outils d’IA comporte de nombreux risques de dommages involontaires, mais certains États arment désormais l’IA pour cible ou pour exclure des personnes sur la base de préjugés historiques, ou pour multiplier les campagnes de répression.

L’exemple le plus frappant vient peut-être de la province chinoise du Xinjiang. La République populaire de Chine (RPC) a mis en place une technologie de reconnaissance faciale dans toutes les villes pour surveiller minorités ethniques comme les Ouïghours, dans l’un des premiers exemples connus d’un gouvernement utilisant IA spécifiquement pour le profilage racial. Cette technologie migre au-delà des frontières vers d’autres États autoritaires de la région, comme l’a récemment acheté la junte du Myanmar. caméras de reconnaissance faciale des entreprises chinoises utilisées pour réprimer dissidents et opposants politiques.Il convient de noter que des entreprises européennes et américaines fournissent également ces technologies à des régimes aux antécédents douteux en matière de droits de l’homme. Chine exportations Technologie de surveillance basée sur l’IA pour plus de soixante régimes autoritaires, un nombre qui augmente rapidement en partie en raison de l’influence de la Belt and Road Initiative (BRI). Le gouvernement américain doit s’attaquer au pouvoir croissant de l’IA et au marché croissant des produits de surveillance de l’IA, en propageant les normes et en s’engageant avec des alliés pour réduire les effets nocifs de l’IA, tant au pays qu’à l’étranger.

Normes de construction dans le monde

Des startups comme OpenAI dirigent les aspects techniques de la réduction des biais dans l’IA en prétraitement des ensembles de données pour éliminer les données nuisibles, et les plus grandes entreprises technologiques ont publié des codes d’éthique pour le développement et les applications de l’IA. Après avoir reçu de gros retour contre leurs outils de reconnaissance faciale, Microsoft et Facebook ont ​​annoncé qu’ils ne vendraient plus la technologie de reconnaissance faciale en raison de préoccupations concernant son utilisation abusive.

Plus à propos:

Technologie et innovation

Robots et intelligence artificielle

L’autodiscipline du secteur privé ne suffit cependant pas. Le gouvernement américain a besoin d’une vaste initiative sur la manière de réglementer les biais algorithmiques. Et il est impératif que les États-Unis travaillent avec des alliés internationaux pour établir des normes pour un développement responsable de l’IA.

Il existe déjà des mécanismes de coopération ; La Groupe de travail national sur les ressources de recherche en IA vise à mettre en relation des experts du gouvernement, du milieu universitaire et du secteur privé pour examiner les questions liées à la gouvernance et à la recherche sur l’IA. O Alliance européenne de l’IA est un forum existant permettant aux pays de discuter des préoccupations éthiques liées à l’IA décrites par le Stratégie européenne de l’IA. L’Organisation de coopération et de développement économiques a également publié votre propre organisation conçue pour encourager l’utilisation éthique de l’IA. les États-Unis aussi rejoint une initiative du Groupe des Sept de l’IA qui vise à lutter contre l’utilisation de l’IA par la Chine pour restreindre les libertés civiles. Les États-Unis peuvent renforcer les relations diplomatiques existantes avec leurs alliés européens et éviter des différends tels que autour de que le règlement général sur la confidentialité des données intervient dans le développement de l’IA, créant des normes sur ces questions à travers ces forums.

En outre, les États-Unis devraient renforcer les partenariats dans différentes régions du monde pour faire face aux tendances culturelles qui peuvent renforcer les préjugés dans l’IA. La majeure partie de la recherche et du développement en matière d’IA se déroule dans L’Europe, la Chine et les États-Unis, ce qui signifie que de nombreuses applications d’IA utilisées à l’avenir refléteront les préjugés culturels de certains grands pays. Les organisations existantes telles que le Quadrilateral Security Dialogue (le Quad), qui comprend l’Australie, l’Inde, le Japon et les États-Unis, devraient être mises à profit pour une plus grande coopération sur le développement de l’IA. Quad se concentre déjà sur la coopération technologique, mais la coopération sur le développement de l’IA entre les trois autres membres, en plus des États-Unis, est manquant. La promotion de la collaboration multilatérale par le biais de Quad et de partenariats comme celui-ci peut créer des opportunités de recherche conjointe sur la manière d’atténuer les préjugés sociaux algorithmiques dans des régions au-delà de l’Europe et de la Chine. Il existe sans aucun doute d’autres moyens par lesquels les chercheurs peuvent réduire les biais en IA, mais la création d’organisations et de normes conçues pour réduire les biais en IA et encourager la recherche en IA dans davantage de pays contribuerait grandement à éliminer certains des problèmes rencontrés dans le domaine de l’IA.

Pragya Jain est stagiaire dans le programme numérique et cyberespace du Council on Foreign Relations.

Leave a Comment

Your email address will not be published.