A young girl holds hands with a robot at Kuromon Market in Osaka, Japan.

L’intelligence artificielle souffre de quelques défauts très humains. Les préjugés sexistes sont un

L’IA, en tant que miroir de la façon dont ses créateurs comprennent le monde, peut contenir des préjugés. Image : Unsplash/Andy Kelly

Le mois dernier, Meta, la société mère de Facebook, a dévoilé un chatbot d’intelligence artificielle considéré comme le plus avancé à ce jour. BlenderBot 3, comme l’IA est connue, est capable de rechercher sur Internet pour parler aux gens de presque tout, et possède des compétences liées à la personnalité, à l’empathie, aux connaissances et à la mémoire à long terme.

BlenderBot 3 est également bon pour vendre des théories du complot antisémites, affirmant que l’ancien président américain Donald Trump a remporté les élections de 2020 et qualifiant le président Meta et co-fondateur de Facebook Mark Zuckerberg de « effrayant ».

Ce n’est pas la première fois qu’une IA devient voyou. En 2016, il a fallu moins de 24 heures à Tay AI de Microsoft pour devenir un fanatique de droite sur Twitter, publiant des tweets racistes et misogynes faisant l’éloge d’Adolf Hitler.

Les deux expériences illustrent le fait que les technologies comme l’IA sont tout aussi vulnérables aux biais corrosifs que les humains qui les construisent et interagissent avec elles. C’est une question qui préoccupe particulièrement Carlien Scheele, directeur de l’Institut européen pour l’égalité des genres, qui affirme que l’IA pourrait poser de nouveaux défis pour l’égalité des genres.

Scheele dit que les femmes représentent plus de la moitié de la population européenne, mais seulement 16 % de ses travailleurs en intelligence artificielle. Elle dit que jusqu’à ce que l’IA reflète la diversité de la société, elle “causera plus de problèmes qu’elle n’en résoudra”, ajoutant qu’en IA, une représentation limitée conduit à la création d’ensembles de données avec des biais intégrés qui peuvent perpétuer les stéréotypes sur le genre.

Une expérience récente dans laquelle des robots ont été entraînés par des algorithmes d’IA populaires souligne ce point. Selon un rapport, les robots associent systématiquement des termes tels que “gardien” et “femme au foyer” à des images de personnes de couleur et de femmes. rapport par le Washington Post.

double défi

Scheele dit que deux défis doivent être relevés : la tâche urgente de réduire les préjugés qui peuvent être intégrés à l’IA et la question à long terme de savoir comment la diversité de la main-d’œuvre de l’IA peut être augmentée.

Pour lutter contre les biais de l’IA, l’UE a proposé une nouvelle législation sous la forme de la Loi sur l’intelligence artificielledont l’une des dispositions suggère que les systèmes d’IA utilisés pour aider à embaucher, promouvoir ou évaluer les travailleurs devraient être considérés comme “à haut risque” et soumis à une évaluation par un tiers.

Le raisonnement au-delà de la provision soutient que l’IA peut perpétuer des “modèles historiques de discrimination” tout en préservant les perspectives de carrière d’un individu. Scheele soutient la législation, affirmant qu’elle peut aider les femmes à poursuivre leurs ambitions professionnelles en réduisant la discrimination liée à l’IA.

Elle dit que des mesures comme la loi peuvent lutter contre les préjugés et la discrimination à court terme, mais qu’il est tout aussi important d’augmenter la représentation des femmes dans l’IA à long terme. Scheele dit que la première étape dans cette direction sera de soutenir la poursuite par les femmes de l’enseignement des sciences, de la technologie, de l’ingénierie et des mathématiques, en luttant contre les stéréotypes paresseux et contre-productifs. Sans efforts délibérés sur le front de l’intégration des genres, dit-elle, “les domaines dominés par les hommes continueront d’être dominés par les hommes”.

Elle dit également que les entreprises et autres entités qui utilisent l’IA devraient encourager une représentation accrue des femmes pour assurer «un spectre de perspective plus large», car une perspective plus inclusive favorisera le développement de compétences, d’idées et d’innovations qui profitent de manière mesurable à ses performances. .

Abby Seneor, directrice de la technologie de la plate-forme espagnole de données sociales Citibeats, affirme qu’il est crucial d’augmenter la proportion de femmes travaillant dans l’IA, car lorsque des systèmes d’IA sont en cours de développement, un humain « décide[s] si la sortie de cet algorithme est bonne ou mauvaise, et c’est purement pour l’ingénieur. Engager des personnes non seulement possédant les bonnes qualifications, mais qui peuvent également identifier les préjugés est donc essentiel, dit-elle.

communauté open source

Une autre façon de lutter contre les préjugés de l’IA consiste à partager des modèles d’IA avec d’autres, déclare Seneor, soulignant la « communauté éthique de l’IA » d’organisations partageant les mêmes idées avec lesquelles Citibeats travaille.

Citibeats fournit des informations aux gouvernements en évaluant le sentiment du public sur diverses questions en surveillant le contenu des médias sociaux à l’aide du traitement du langage naturel et de l’apprentissage automatique. Il partage des informations avec d’autres organisations qui gèrent leurs propres ensembles de données afin que lui et ses collaborateurs puissent tester des modèles d’IA et signaler des biais ou des défauts potentiels aux développeurs.

Si, par exemple, une équipe développe un modèle d’IA pour numériser des photos et identifier le sexe des personnes, elle peut se trouver contrainte par le fait qu’elle ne travaille que dans une partie du monde. Mais en partageant leur modèle avec des organisations ailleurs, ils peuvent tester leur modèle en utilisant des images d’un plus large éventail d’humains, contribuant ainsi à l’efficacité du modèle d’IA.

Seneor dit que créer une IA impartiale n’est pas seulement un travail pour les professionnels, mais aussi pour les décideurs politiques, qui, selon elle, “ont besoin de rattraper la technologie” et bénéficieraient d’un plus grand engagement avec les personnes impliquées dans l’IA à un niveau pratique. .

L’Université de Stanford cherche à promouvoir ce type d’engagement et a invité le mois dernier des représentants du Sénat et de la Chambre des représentants des États-Unis à participer à une “Camp d’entraînement IA” où des experts en intelligence artificielle leur ont expliqué comment la technologie affecterait la sécurité, la santé et l’avenir du travail.

Seneor soutient également une réglementation accrue des grandes entreprises technologiques impliquées dans l’IA, telles que DeepMind, détenue par Alphabet, la société mère de Google, car les algorithmes qu’elles créent affectent des millions de personnes. «Avec ce grand pouvoir vient une grande responsabilité», dit-elle.

La réglementation peut obliger les grandes entreprises technologiques à être ouvertes sur le fonctionnement de leur IA et sur la manière dont elle pourrait changer. Cela peut également nécessiter que les modèles d’IA soient testés avec une plus grande transparence, ce qui représenterait une rupture significative par rapport à la manière secrète dont les entreprises du domaine opèrent actuellement. Seneor dit que les entreprises intègrent l’IA dans des produits que tout le monde utilise, mais que les gens “n’ont aucune idée de ce qui s’y passe”.

L’IA dans l’économie des concerts

L’Institut européen pour l’égalité des genres affirme que l’économie des concerts est un domaine dans lequel l’IA peut entraîner des résultats injustes pour les femmes. Selon un rapport, les algorithmes d’IA déterminent souvent les heures des travailleurs sur des plateformes comme Uber et Deliveroo. rapport a été publié en début d’année. Les algorithmes utilisent des données telles que les antécédents professionnels, les changements d’équipe, les absences et les congés de maladie pour attribuer de nouvelles tâches et évaluer les performances, ce qui peut conduire à un traitement inégal des femmes, dont les antécédents professionnels peuvent être compliqués par la maternité et d’autres engagements. Dans une étude portant sur 5 000 travailleurs temporaires, l’institut a constaté qu’un sur trois acceptait un travail temporaire, équilibrant les responsabilités familiales et les tâches ménagères.

Scheele dit que s’il est essentiel de s’attaquer à l’IA injuste, les gouvernements peuvent jouer un rôle dans la création d’une « économie du travail qui fonctionne pour les femmes » en garantissant que les travailleurs ont accès à un système de sécurité sociale solide. Elle dit que fournir une assurance maladie et vie, des régimes de retraite et un soutien à la maternité peut donner aux femmes “la sécurité psychologique de savoir qu’il y a un filet pour les attraper” si quelque chose d’inattendu se produit pendant qu’elles travaillent.

Alors que le monde poursuit sa transformation numérique, les avancées technologiques se font attendre, offrant un grand potentiel pour améliorer la vie des gens. Mais il est important de reconnaître que la technologie n’est jamais complètement agnostique et que les préjugés et la discrimination peuvent y être intégrés tout autant que toute autre création humaine. Il est donc d’autant plus important que le développement technologique, dont l’IA est un élément de plus en plus important, soit éclairé par des considérations de non-discrimination et d’équité, afin que toute la dynamique croissante de l’innovation numérique porte ses fruits équitablement.

Leave a Comment

Your email address will not be published.