L’action vise à éliminer les méthodes qui sous-tendent l’IA moderne

“Um pirata fugindo com um computador, arte digital” DALL-E

“Un pirate s’enfuyant avec un ordinateur, art numérique” DALL-E
Image🇧🇷 OpenAI

Quiconque suit l’industrie technologique sait que les poursuites judiciaires sont actuellement au nombre d’une douzaine, mais une nouvelle entrée déposée ce mois-ci contre Github, propriété de Microsoft, remet en question les principes fondamentaux fondamentaux qui sous-tendent certaines des avancées les plus importantes de l’intelligence artificielle au cours des trois dernières décennies. .

Le procès, mené par le programmeur et avocat Matthew Butterick, traite spécifiquement des problèmes avec Github copilote, un outil d’assistant IA qui propose aux programmeurs des extraits de code suggérés pendant qu’ils codent, comme la fonction de saisie semi-automatique dans Google Docs ou Gmail. Copilot a appris les types de lignes à coder après avoir collecté de grands échantillons de lignes de code accessibles au public sur Internet ouvert. Au cours de ce processus, le recours collectif proposé procès affirme que Copilot ignore ou supprime de manière flagrante les licences soumises par les ingénieurs en logiciel et s’appuie effectivement sur le “piratage de logiciels à une échelle sans précédent”.

“Ce n’est pas juste, permis ou justifié”, lit-on dans le procès. “Au contraire, l’objectif de Copilot est de remplacer une énorme bande d’open source, en la prenant et en la gardant à l’intérieur d’un paywall contrôlé par GitHub. Il viole les licences choisies par les programmeurs open source et monétise leur code, malgré la promesse de GitHub de ne jamais le faire.”

Séparé article de blog, Butterick soutient que l’approche de Microsoft avec Copilot crée un “jardin clos”, ce qui complique la tâche des programmeurs dans les communautés open source traditionnelles. Si cela continue, soutient-il, cela affamera les communautés open source et, avec le temps, finira par les tuer.

Plutôt que d’accuser Microsoft et Github d’avoir enfreint les lois sur le droit d’auteur, le procès de Butterick accuse Copilot d’avoir enfreint les propres conditions d’utilisation et les lois sur la confidentialité des entreprises, et d’avoir enfreint les lois fédérales qui obligent les entreprises à afficher les informations sur le droit d’auteur des matériaux qu’elles utilisent. Et bien que cette combinaison particulière se concentre sur Copilot en particulier, les principes de l’argument s’appliquent potentiellement à de très nombreux autres outils qui utilisent des méthodes de grattage similaires pour développer leurs outils.

“Si des entreprises comme Microsoft, GitHub et OpenAI choisissent de bafouer la loi, elles ne devraient pas s’attendre à ce que nous, le public, restions les bras croisés”, a déclaré Butterick dans un récent article de blog. “L’IA doit être juste et éthique pour tout le monde. Sinon, il ne pourra jamais atteindre ses objectifs tant vantés d’élever l’humanité. Cela deviendra juste un autre moyen pour quelques privilégiés de profiter du travail du plus grand nombre.

« Nous nous sommes engagés à innover de manière responsable avec Copilot depuis le début et nous continuerons à évoluer le produit pour mieux servir les développeurs du monde entier », a déclaré un porte-parole de Github dans un e-mail à Gizmodo.

Microsoft n’a pas répondu à une demande de commentaire.

“Un meilleur nouveau monde de piratage de logiciels”

Ces problèmes de droits d’auteur et la compensation de l’IA ne se limitent pas aux programmeurs. femmes écrivains🇧🇷 les musicienset artistes visuels tous ont fait écho à ces préoccupations ces dernières années, notamment dans le sillage d’outils d’image et de vidéo génératifs d’IA de plus en plus populaires et efficaces tels que DALL-E et Stable Diffusion d’Open AI. Contrairement à la formation précédente sur l’IA, qui remplit de manière inélégante des milliards d’unités de données dans un pool d’apprentissage pour les systèmes d’IA, de nouvelles approches génératives comme DALL-E prendront des images de Pablo Picasso et les transformeront en quelque chose de nouveau basé sur la description d’un utilisateur. Cet acte de réaffectation des données complique davantage la réflexion traditionnelle sur le droit d’auteur. Comme Butterick, un chœur croissant d’artistes et d’écrivains créatifs s’est récemment manifesté. exprimer des peurs compréhensibles la maturité à venir du système d’IA menace de les mettre au chômage.

Certaines entreprises explorent de nouvelles façons de créditer les personnes dont le travail finit par influencer l’algorithme. Le mois dernier, par exemple, Shutterstock annoncé commencerait à vendre les illustrations générées par l’IA du DALL-E (également formées sur les humains) directement sur son site Web. Dans le cadre de cette initiative, Shuttersock a déclaré qu’il lancerait un «Fonds des contributeurs» unique en son genre pour rémunérer les contributeurs dont les images Shutterstock ont ​​été utilisées pour aider à développer la technologie. Shutterstock a déclaré qu’il souhaitait également rémunérer les contributeurs avec des redevances lorsque DALL-E utilise leurs créations.

La question de savoir si ce plan fonctionne ou non dans la pratique reste incertaine et Shutterstock n’est qu’une entreprise relativement petite par rapport aux géants de la Big Tech comme Microsoft. Les normes proposées à l’échelle de l’industrie pour indemniser les créateurs pour la formation par inadvertance des systèmes d’IA restent inexistantes.

Le bœuf de Butterick avec Copilot en particulier a commencé presque dès la sortie du produit. En juin 2021 article de blog intitulé “Ce copilote est stupide et veut me tuer”, l’avocat s’est dit d’accord avec les autres qui a décrit l’outil comme “principalement un mécanisme de violation des licences open source”. Les avocats ont comparé l’efficacité de Copilot à écrire du code à celle d’un garçon de 12 ans apprenant Javascript en une journée. Ce n’est pas toujours nécessaire non plus.

“Le copilote vous charge essentiellement de corriger les devoirs d’un enfant de 12 ans, encore et encore”, a écrit Butterick.

En parlant de votre récent procès, Butterick a reconnu la nouveauté de la plainte et a déclaré qu’elle serait probablement corrigée à l’avenir. Bien que probablement le premier Dans un tel effort juridique pour aller à la racine de la formation à l’IA, le programmeur et avocat a déclaré qu’il pensait que c’était une étape importante vers la responsabilisation des créateurs d’IA à l’avenir.

“C’est la première étape de ce qui sera un long voyage”, a déclaré Butterick. “À notre connaissance, il s’agit du premier recours collectif aux États-Unis contestant la formation et la production de systèmes d’IA. Ce ne sera pas le dernier. Les systèmes d’IA ne sont pas exemptés de la loi.