Comment les algorithmes d’intelligence artificielle produisent des décisions biaisées · The Badger Herald

Google, Amazon, les écoles, le gouvernement et de nombreux endroits dans le monde utilisent une forme d’intelligence artificielle (IA). Alors que les algorithmes et la science des données derrière l’IA deviennent de plus en plus omniprésents dans la société, certains chercheurs concentrent leurs efforts pour rendre ces technologies plus équitables pour tous.

Eunsil Oh, professeur adjoint de sociologie à l’Université du Wisconsin, travaille sur un projet collaboratif avec des chercheurs du département d’informatique pour étudier comment les préjugés peuvent entrer dans les algorithmes et perpétuer les inégalités sociales.

“Je pensais que l’équité des algorithmes est un si bon sujet car il vous prépare en quelque sorte à essayer de résoudre ces problèmes qui peuvent survenir”, a déclaré Oh. “Je voulais utiliser mon expérience en genre et en sociologie, qui traite des inégalités [and] cela n’inclut pas seulement le sexe. Comprend également la course. Cela inclut également les origines ethniques, la sexualité et les capacités.

Les étudiants handicapés en STEM font face à des obstacles supplémentaires pour obtenir un diplômeRemarque : Cette histoire utilise un langage à la première personne (« personnes handicapées ») et un langage identitaire (« personnes handicapées »), conformément à l’utilisation mixte dans divers Lire…

L’objectif principal d’Oh dans ce projet est l’écart de rémunération entre les hommes et les femmes. Le processus d’embauche dans les grandes entreprises comme Google et Amazon utilise des algorithmes pour le premier tour de sélection. Lorsque les algorithmes sont nourris avec des années de données biaisées, ils finissent par prendre des décisions biaisées, a déclaré Oh. Cela peut contribuer à perpétuer les inégalités entre les sexes dans les prévisions d’embauche, de salaire et de productivité. Les femmes étant moins bien payées que les hommes depuis des années, la discrimination statistique peut persister dans les données saisies dans les systèmes d’IA.

De plus, Oh et son équipe mènent une méta-analyse des pratiques d’embauche. Ils créent de faux CV où ils contrôlent de nombreuses variables telles que le sexe, la race et le nom. Ils soumettent ces CV aux offres d’emploi réelles et examinent quelles variables affectent la probabilité d’être embauché.

En parallèle, l’équipe informatique du projet a créé un algorithme qui analyse ces CV et décide d’embaucher ou non le candidat. L’algorithme attribue ensuite au candidat un salaire de départ. Ce faisant, Oh a déclaré que l’équipe est en mesure de voir à quel point les algorithmes peuvent être biaisés et de suggérer des moyens de les modifier pour surmonter ces biais.

Jerry Zhu, professeur d’informatique à l’UW, étudie des méthodes pour s’assurer que l’IA fait son travail prévu et ne produit pas de résultats inattendus. Il a déclaré que les systèmes de langage naturel tels que les robots de discussion peuvent être vulnérables à l’affichage de biais. Ces systèmes sont conçus pour « répéter » des choses que les humains ont dites et faites dans le passé. Comme les minorités peuvent être sous-représentées dans l’ensemble de données, ces systèmes peuvent reproduire des inégalités sociales.

“C’est potentiellement un moyen pour le système d’amplifier ces biais, surtout si le système est utilisé pour prendre des décisions importantes”, a déclaré Zhu.

AI a touché de manière disproportionnée les minorités à certaines occasions. Facebook a dû s’excuser après que le logiciel ait incité les utilisateurs à continuer à regarder des “vidéos de primates” après avoir regardé une vidéo mettant en scène des hommes noirs, selon Facebook. Radio Nationale Publique. en 2015Google a dû supprimer les mots gorille, chimpanzé, chimpanzé et singe de son logiciel de reconnaissance d’images après que le logiciel ait étiqueté les hommes noirs “gorilles”.

Les laboratoires de recherche de l’UW ont du mal à gérer les déchets de manière durableÉpicentre de la recherche révolutionnaire, l’Université du Wisconsin produit constamment de nouvelles découvertes dans de nombreux domaines, de la chimie à la vie végétale. Lire…

De plus, Oh étudie comment le système de justice pénale utilise l’IA. Elle a déclaré que les préjugés peuvent conduire à des déterminations ou à des peines de libération sous caution injustes. Cependant, chaque cas est unique, ce qui rend difficile de dire si l’IA avait raison ou tort.

Les services de police utilisent également souvent l’IA, ce qui contribue davantage aux problèmes systémiques existants.

“Je dirais que l’utilisation des mégadonnées a augmenté dans le maintien de l’ordre et a reproduit les inégalités existantes plutôt que de les réduire jusqu’à présent”, a déclaré Oh.

L’IA utilisée dans le maintien de l’ordre se concentre sur les codes postaux, a déclaré Oh, ce qui pourrait être problématique étant donné que la police accordera une probation aux quartiers qui ont historiquement accueilli le plus de crimes. Cela conduit à plus d’arrestations dans ces quartiers. Plus d’arrestations conduisent à plus d’officiers en patrouille, et le système commence à devenir incontrôlable.

L’IA n’est pas entièrement mauvaise et les algorithmes biaisés ne sont pas intentionnels. Zhu a déclaré que toute société de logiciels d’IA réputée n’avait pas l’intention de produire une IA biaisée, mais que les biais peuvent toujours s’infiltrer dans leurs données. Zhu a suggéré que ces systèmes ont besoin d’une sorte de protection, comme avoir une composante humaine dans le processus de prise de décision ou construire un système plus résistant aux préjugés.

“Vous pouvez le restreindre afin qu’il soit conscient de certains préjugés, et vous pouvez lui dire de ne jamais faire quelque chose qui est éthiquement mauvais”, a déclaré Zhu.

Séminaire sur l’énergie durable : Utiliser l’ammoniac pour abandonner les combustibles fossilesL’objectif de la Maison Blanche de zéro émission nette de carbone d’ici 2050 nécessitera de grands changements – dans un Lire…

Zhu a comparé l’IA à n’importe quel produit alimentaire, et avec tout produit alimentaire vient une étiquette nutritionnelle et une liste d’ingrédients. Zhu a déclaré que les futurs systèmes d’IA pourraient être tenus d’inclure une “étiquette nutritionnelle” à l’avenir, ce qui aiderait les utilisateurs à savoir ce qu’ils utilisent. AI manque cette étiquette.

Le défi consiste à identifier comment un système d’IA prend ses décisions. Zhu a qualifié ces systèmes de “boîte noire” car il n’y a aucun moyen de les disséquer et de les comprendre maintenant. Pourtant, il pense que la poursuite de ces recherches est importante pour rendre l’IA équitable pour tous.

“C’est extrêmement important car l’IA est comme n’importe quel autre produit, et vous ne voulez pas d’un produit défectueux”, a déclaré Zhu.

Ces cas montrent pourquoi il sera important pour le développement des systèmes d’IA d’inclure la contribution de sociologues comme Oh.

Oh se considère comme une érudite qualitative, ce qui signifie que ses données et ses observations proviennent d’interactions avec de vraies personnes. Cependant, une fois la pandémie arrivée, elle n’a pas été en mesure de recueillir des observations grâce à ces interactions. Elle a été attirée par cette étude par son collègue du département d’informatique, Kangook Lee, qui leur a proposé de collaborer sur un projet basé sur des questions sociales. De cette façon, Oh pourrait apporter sa formation en sociologie au domaine émergent des mégadonnées.

UHS offre des vaccins gratuits contre la grippe aux étudiants et au personnelLe début du semestre apporte des jours de match, des soirées tardives à la bibliothèque de la Faculté et la saison de la grippe. A partir du 13 septembre, Université Lire…

Oh se sent chanceuse d’avoir sa formation sociologique abordant ce domaine technique. Elle espère que des études comme celles-ci pourront conduire à une plus grande collaboration entre la sociologie et la science des données. Elle pense que les gens devraient continuer à apporter une plate-forme philosophique plus large à ces projets axés sur les données pour résoudre ces problèmes sociaux.

“Mon rôle est vraiment de donner un aperçu de ce dont il s’agit”, a déclaré Oh. “Il s’agit de reproduire les inégalités sociales dans cette nouvelle plateforme de fusion et c’est inévitable pour nous.”

Leave a Comment

Your email address will not be published.