Les équipes de polarisation de l’IA et de sécurité de l’IA sont divisées sur l’intelligence artificielle

Il y a des équipes de chercheurs de l’académie est à meilleurs laboratoires d’IA ces jours-ci travaillant sur le problème de l’éthique de l’IA, ou les préoccupations morales soulevées par les systèmes d’IA. Ces efforts ont tendance à être particulièrement axés sur les problèmes de confidentialité des données et sur ce que l’on appelle le biais de l’IA – des systèmes d’IA qui, en utilisant souvent des données de formation biaisées intégrées, produisent des résultats racistes ou sexistes, tels que refusant les limites des cartes de crédit pour les femmes, ils accorderaient à un homme ayant des qualifications identiques.

Il y a aussi des équipes de chercheurs de l’académie et dans certaines (quoique moins nombreux) les laboratoires d’IA qui travaillent sur le problème de Alignement de l’IA. C’est le risque qu’à mesure que nos systèmes d’IA deviennent plus puissants, nos méthodes de supervision et nos approches de formation seront de plus en plus dénuées de sens pour les amener à faire ce que nous voulons vraiment qu’ils fassent. En fin de compte, nous confierons l’avenir de l’humanité à des systèmes avec des objectifs et des priorités que nous ne comprenons plus et que nous ne pouvons plus influencer.

Aujourd’hui, cela signifie souvent que les éthiciens de l’IA et ceux alignés sur l’IA travaillent sur des problèmes similaires. Améliorer la compréhension du fonctionnement interne des systèmes d’IA actuels est une approche pour résoudre l’alignement de l’IA et est cruciale pour comprendre quand et où les modèles sont trompeurs ou discriminatoires.

Et d’une certaine manière, l’alignement de l’IA n’est que le problème du biais de l’IA écrit (terriblement) gros : nous attribuons plus de pouvoir de décision social à des systèmes que nous ne comprenons pas entièrement et ne pouvons pas toujours auditer, et que les législateurs ne font pas. t savoir presque assez bien pour réglementer efficacement.

Aussi impressionnant que puisse paraître l’intelligence artificielle moderne, ces systèmes d’IA sont désormais, d’une certaine manière, “stupides”. Ils ont généralement une portée très étroite et une puissance de calcul limitée. Dans la mesure où ils peuvent causer des dommages, ils le font généralement pour reproduire les dégâts dans les ensembles de données utilisés pour les former ou à travers Abus délibéré par de mauvais acteurs.

Mais l’IA ne restera pas éternellement stupide, car de nombreuses personnes travaillent avec diligence pour la rendre aussi intelligente que possible.

Une partie de ce qui rend les systèmes d’IA d’aujourd’hui limités dans les dangers qu’ils représentent est qu’ils n’ont pas un bon modèle du monde. Cependant, des équipes travaillent à former des modèles qui Fait avoir une bonne compréhension du monde. L’autre raison pour laquelle les systèmes actuels sont limités est qu’ils ne sont pas intégrés dans les leviers de pouvoir de notre monde – mais d’autres équipes déploient beaucoup d’efforts pour construire des drones, des bombes, des usines et des outils de fabrication de précision alimentés par l’IA.

Cette dynamique – où nous nous efforçons de rendre les systèmes d’IA de plus en plus intelligents, sans vraiment comprendre leurs objectifs ni avoir un bon moyen de les auditer ou de les surveiller – nous prépare au désastre.

Et pas dans un futur lointain, mais dans quelques décennies. C’est pourquoi il est crucial que la recherche sur l’éthique de l’IA se concentre sur la gestion des implications de l’IA moderne et de la recherche sur l’alignement de l’IA axée sur la préparation de futurs systèmes puissants.

Pas seulement les deux faces d’une même médaille

Alors, ces deux groupes d’experts chargés de sécuriser l’IA s’entendent-ils vraiment ?

Hahaha non.

Ce sont deux camps, et ce sont deux camps qui parfois ne s’aiment pas.

Du point de vue des personnes qui travaillent de manière éthique dans l’IA, les experts qui se concentrent sur l’alignement ignorent les vrais problèmes que nous rencontrons déjà aujourd’hui en faveur d’une obsession pour les problèmes futurs qui pourraient ne jamais se produire. Souvent, le domaine de l’alignement ne sait même pas sur quels problèmes travaillent les responsables de l’éthique.

“Certaines personnes travaillant sur des politiques à long terme/de type AGI ont tendance à ignorer, minimiser ou simplement ne pas considérer les problèmes immédiats de déploiement/dommages de l’IA”, Jack Clark, co-fondateur d’AI Laboratoire de recherche sur la sécurité de l’IA anthropique et ancien directeur des politiques chez OpenAI, il a écrit Cette fin de semaine.

Du point de vue de nombreuses personnes de l’alignement de l’IA, cependant, beaucoup “éthique” travailler dans les meilleurs laboratoires d’IA est fondamentalement juste glorifié les relations publiques, conçu principalement pour que les entreprises technologiques puissent dire qu’elles sont préoccupées par l’éthique et éviter les enchevêtrements de relations publiques embarrassants – mais ne faisant rien pour changer la trajectoire globale du développement de l’IA. Dans les sondages auprès des éthiciens de l’IA, la plupart disent que ne vous attendez pas à des pratiques de développement dans les grandes entreprises changer pour donner la priorité aux préoccupations morales et sociales.

(Pour être clair, de nombreuses personnes de l’alignement de l’IA aussi direct cette revendication sur les autres dans le domaine de l’alignement. De nombreuses personnes s’efforcent de rendre les systèmes d’IA plus puissants et dangereux, avec diverses justifications de la façon dont il est utile d’apprendre à les rendre plus sûrs. D’un point de vue plus pessimiste, presque tous les travaux sur l’éthique de l’IA, la sécurité de l’IA et l’alignement de l’IA ne visent en fait qu’à créer des IA plus puissantes – mais avec de meilleures relations publiques.)

De nombreux chercheurs en éthique de l’IA, pour leur part, disent qu’ils aimeraient faire plus, mais sont frustrés par les cultures d’entreprise qui ne les prennent pas très au sérieux et ne traitent pas leur travail comme une priorité technique fondamentale, comme un ancien chercheur en éthique de l’IA chez GoogleMeredith Whittaker noté dans un tweet:

Un écosystème d’IA plus sain

La bataille d’alignement entre l’éthique et l’IA n’a pas à exister. Après tout, les climatologues qui étudient les effets actuels du réchauffement n’ont pas tendance à condamner amèrement les climatologues qui étudient les effets à long terme, et les chercheurs qui travaillent sur concevoir les pires scénarios n’ont pas tendance à prétendre que ceux qui travaillent aujourd’hui avec les canicules perdent leur temps.

Vous pourriez facilement imaginer un monde où le domaine de l’IA serait similaire – et beaucoup plus sain pour cela.

Car n’est pas que le monde dans lequel nous sommes?

Mon instinct est que les luttes intestines de l’IA sont liées à la compréhension publique très limitée de ce qui se passe avec l’intelligence artificielle. Lorsque l’attention du public et les ressources semblent rares, les gens trouvent des projets malveillants menaçants – après tout, ces autres projets obtiennent une implication qui se fait au détriment des leurs.

Beaucoup de gens – même de nombreux chercheurs en IA – ne se soucient pas des impacts de leur travail sur la sécurité. très sérieux.

Parfois, les dirigeants rejettent les préoccupations de sécurité à long terme avec la conviction sincère que l’IA sera très bonne pour le monde, donc la chose morale à faire est d’accélérer le développement.

Parfois, c’est à cause de la conviction que l’IA ce ne sera rien de transformateur, du moins pas dans nos vies, donc il n’y a pas besoin de tout ce remue-ménage.

Parfois, cependant, c’est par cynisme – les experts savent à quel point l’IA est susceptible d’être puissante, et ils Je ne veux ni supervision ni responsabilité Pourquoi ils pensent qu’ils sont supérieurs à toute institution qui les tient responsables.

Le public n’est que vaguement conscient que les experts ont de sérieux problèmes de sécurité concernant les systèmes d’IA avancés, et la plupart des gens n’ont aucune idée des projets prioritaires pour le succès à long terme de l’alignement de l’IA, des préoccupations liées au biais de l’IA et de ce qu’est exactement l’IA. font les experts. jour, de toute façon. En interne, les personnes qui travaillent de manière éthique dans l’IA sont souvent isolées et isolées dans les organisations pour lesquelles elles travaillent et doivent se battre juste pour que leurs collègues prennent leur travail au sérieux.

Ce sont ces lacunes générales avec l’IA en tant que domaine qui, à mon avis, sont à l’origine de la plupart des divisions entre les chercheurs en sécurité de l’IA à court et à long terme. Dans un domaine sain, il y a beaucoup d’espace pour que les gens travaillent sur différents problèmes.

Mais dans un domaine qui peine à se définir et qui craint de ne pas être en mesure de réaliser quoi que ce soit ? Pas beaucoup.

Une version de cette histoire a été initialement publiée dans la newsletter Future Perfect. Inscrivez-vous ici pour vous inscrire!

Leave a Comment

Your email address will not be published.