Réglementer l’Intelligence Artificielle – Un consensus mondial est-il possible ?

L’intelligence artificielle est devenue monnaie courante dans la vie de milliards de personnes dans le monde. La recherche montre que 56 % des entreprises ont adopté l’IA dans au moins un rôle, notamment dans les pays émergents. C’est six pour cent de plus qu’en 2020. L’IA est utilisée dans tous les domaines, de l’optimisation des opérations de service au recrutement de talents. Il peut capturer des données biométriques et aide déjà dans les applications médicales, les systèmes judiciaires et les finances, en prenant des décisions importantes dans la vie des gens.

Mais un défi majeur reste de réglementer son utilisation. Un consensus mondial est-il donc possible ou un paysage réglementaire fragmenté est-il inévitable ?

Le concept d’IA suscite la peur du roman “1984” d’Orwell et de sa notion de “Big Brother is Watching You”. Des produits basés sur des algorithmes qui violent les droits de l’homme sont déjà en cours de développement. Il est donc temps de prendre la parole, d’établir des normes et des réglementations pour atténuer le risque d’une société basée sur la surveillance et d’autres scénarios cauchemardesques. Les États-Unis et l’UE peuvent prendre l’initiative sur cette question, d’autant plus que les deux blocs ont historiquement partagé des principes concernant l’État de droit et la démocratie. Mais des deux côtés de l’Atlantique, des valeurs morales différentes sous-tendent des principes, et elles ne se traduisent pas nécessairement par des règles empiriques similaires. Aux États-Unis, l’accent est mis sur l’équité procédurale, la transparence et la non-discrimination, tandis que dans l’UE, l’accent est mis sur la confidentialité des données et les droits fondamentaux. D’où l’enjeu de trouver des règles communes pour les services numériques opérant sur tous les continents.

Pourquoi l’éthique de l’IA ne suffit pas

Toutes les utilisations de l’IA ne sont pas savoureuses ou basées sur des valeurs agréables au goût. L’IA peut devenir “divine” par nature : laissée à ses garanties éthiques autoproclamées, l’IA a fait ses preuves discriminatoire et subversif. Considérons un instant l’IA qui sous-tend le système dit de “crédit social” en Chine. Cela classe la population chinoise où ceux qui sont jugés peu fiables sont pénalisés pour tout ce qui va de marcher dans la rue à jouer trop de jeux vidéo. Les sanctions comprennent la perte de droits, comme la possibilité de réserver des billets ou de limiter la vitesse d’Internet.

Imposer des règles obligatoires sur l’IA aiderait à empêcher la technologie de violer les droits de l’homme. La réglementation a le potentiel de garantir que l’IA a un effet positif, et non négatif, sur la vie. L’UE a proposé une Loi sur l’IA, conçu pour résoudre ces types de problèmes. O la loi est la première du genre par un régulateur majeur à travers le monde, mais d’autres juridictions telles que la Chine et le Royaume-Uni entrent également dans la course à la réglementation pour avoir leur mot à dire dans l’élaboration des technologies qui régiront nos vies au cours de ce siècle.

Pourquoi la réglementation mondiale est un défi

Les applications de la Loi sur l’IA sont divisées en trois catégories de risque. Il existe des systèmes qui représentent un « risque inacceptable », comme l’application chinoise du crédit social. Il existe également des applications «à haut risque», telles que des outils de vérification de CV, qui doivent se conformer aux exigences légales pour éviter la discrimination. Enfin, d’autres systèmes qui ne sont pas considérés comme présentant un risque élevé ou inacceptable ne sont pas réglementés.

Une réglementation est nécessaire, mais ni les États-Unis ni l’UE ne peuvent l’appliquer seuls. Parvenir à un accord mondial sur les valeurs qui devraient soutenir de telles réglementations est également peu probable. Les défis et les désaccords existent même au sein de l’UE et des États-Unis. Certains pays ont mis en place des règles nationales, ce qui crée un conflit entre les approches nationales et régionales. De même, sans l’UE et les États-Unis travaillant ensemble, la discorde pourrait conduire à l’effondrement de l’infrastructure numérique mondiale.

Trouver des principes communs fondés sur des valeurs

Vous devez être conscient des principes sous-jacents de ce que l’on attend de l’IA et de ce que devraient être les valeurs. Les valeurs implicites peuvent facilement fonctionner là où les principes ne sont pas explicitement énoncés. La science a des valeurs et est culturelle. Les algorithmes peuvent avoir une discrimination intégrée qui peut être raciste ou injuste. Une partie de chercher préconise de remplacer les préjugés implicites par les principes d’empathie, d’autonomie gouvernementale et de devoir. La justice, l’équité et les droits de l’homme sont également des valeurs clés qui devraient souligner des principes communs, bien que vagues et dépendants de la culture.

Certains chercheurs préconisent également l’engagement des parties prenantes, qui est essentiel pour développer l’empathie en tant que principe sous-jacent. Il est important d’impliquer les personnes qui ont traditionnellement été exclues du processus de réglementation de l’IA, mais qui sont affectées par ses résultats.

Pour suivre la conversation, il est essentiel d’avoir les bons principes en place. Un leadership fort est également nécessaire, mais il est encore plus vital de formuler des règles techniques claires pouvant être mises en œuvre efficacement.

Qui devrait diriger la normalisation de l’IA ?

La normalisation technique prend la tête de la réglementation de l’IA par le biais d’associations comme l’IEEE et l’ISO, et d’agences nationales comme le NIST aux États-Unis et les normes CEN, CENELEC, AFNOR, Agoria et Dansk en Europe. Dans ces scénarios, une question clé est l’étendue de l’implication du gouvernement. On s’inquiète de la capacité des politiciens à comprendre et à prendre des décisions complexes sur la façon de réglementer la technologie, mais les gouvernements doivent être impliqués s’ils veulent maintenir la réglementation.

Ceci est essentiel dans une démocratie, compte tenu des risques associés au maintien du pouvoir. Un grand pouvoir peut être abusé et les principaux acteurs et locataires de l’industrie technologique de la Silicon Valley ont une influence indue sur le paramètre par défaut. Prenez Elon Musk, par exemple. Il est, pour ainsi dire, le “dernier souffle” de ceux qui pensent que la réglementation de la parole centrée sur les droits de l’homme de l’UE est une restriction inacceptable du premier amendement. Lorsque l’« absolutiste de la liberté d’expression » autoproclamé a proposé d’acheter Twitter en avril dernier, on craignait que sa politique ne relâche la modération. cela contredirait nouvelles règles européennes de modérationqui introduit des exigences de responsabilité d’algorithme pour les principales plates-formes comme Twitter.

L’application et l’optimisation des normes techniques nécessitent une collaboration entre les législateurs, les décideurs politiques, les universitaires et les ingénieurs et le soutien de différents groupes de parties prenantes tels que les entreprises, les citoyens et les groupes de défense des droits de l’homme. Sans cet équilibre, BigTech les lobbyistes ou la géopolitique auront une influence disproportionnée.

Tout n’est pas perdu

Malgré tous les défis, il y a de l’espoir. Le récit américain donne l’impression que le gouvernement ne peut pas améliorer la société par le biais de réglementations, mais des changements de paradigme majeurs se sont produits auparavant et ont été traités. La réglementation a besoin d’espace, de temps et d’énergie. La société doit s’adapter à la technologie de la même manière que les gouvernements se sont adaptés aux infrastructures ferroviaires et pétrolières, dont l’avènement a entraîné des défis similaires.

Enfin, même si cela peut sembler contre-intuitif, l’Occident devrait garder un œil sur la manière dont la Chine tente de réglementer l’IA. La récente loi chinoise sur les services de recommandation algorithmique vise à intégrer les valeurs chinoises traditionnelles dans des systèmes d’IA “Made in China” qui sont sûrs d’être vendus et utilisés dans le monde entier. Il est grand temps que les États-Unis et l’UE défendent les valeurs démocratiques libérales et les droits de l’homme, en promouvant et en finançant des programmes de recherche et de développement transatlantiques qui peuvent conduire à des technologies numériques qui non seulement s’alignent sur nos valeurs, mais améliorent activement notre humanité.

Article basé sur les interventions des professeurs suivants lors de la conférence « Transatlantic Dialogue on Humanity and AI Regulation » tenue en mai 2022 à HEC Paris : David Restrepo Amariles de HEC Paris, Gregory Lewkowicz de l’Université Libre de Bruxelles, Janine Hiller de Virginia Tech, Anjanette Raymond, Scott Shackelford et Isak Asare de l’Université de l’Indiana, Winston Maxwell de Telecom Paris, Roger Brownsword du King’s College de Londres, Carina Prunkl et Rebecca Williams de l’Université d’Oxford, Kevin Werbach de l’UPenn Wharton Business School, Philip Butler de l’Iliff School, Gregory Voss de Toulouse Business School, Robert Geraci de Manhattan College, Martin Ebers de University of Tartu, Ryan Calo de Universuty of Wahsington, Margaret Hu de Penn State University, Joanna Bryson de Hertie School, Sofia Ranchordas de Groningen University, Scott Shackelford Céline Caira, Responsable Initiatives d’IA à l’OCDE, Aaron McKain de la North Central University, Divya Siddarth, Julio Ponce et Jo ost Joosten de l’Université de Barcelone, Pablo Baquero de HEC Paris et Nizan Packin de l’Université de Haïfa, Konstantinos Karachalios de l’IEEE.

David Restrepo Amariles est professeur associé de droit des données et d’intelligence artificielle à HEC Paris.

Leave a Comment

Your email address will not be published.