Kroger4+%7C+Wikimedia

Un nouveau logiciel d’intelligence artificielle a des implications inquiétantes – The Ticker

L’art produit par l’intelligence artificielle apparaît de plus en plus dans les flux des gens sans qu’ils le sachent.

Cet art peut aller de simples estampes à des images surréalistes. Cela pourrait ressembler à un bol de soupe ou à un monstre ou à des chats jouant aux échecs sur la plage.

Alors que le boom de l’IA capable de créer de l’art a électrifié le monde de la haute technologie, ces nouveaux développements de l’IA ont de nombreuses implications troublantes.

Malgré leurs utilisations positives, les derniers systèmes d’IA ont le potentiel de se présenter comme un outil de désinformation, de créer des biais et de sous-estimer les capacités des artistes.

Début 2021, les progrès de l’IA ont créé des modèles d’apprentissage en profondeur qui pouvaient générer des images simplement en fournissant une description de ce que l’utilisateur imaginait.

Cela inclut DALL-E 2 d’OpenAI, midi, étreindre le visage crayon, Make-A-Scene par Meta, Image par Google et bien d’autres.

Avec l’aide d’un langage habile et d’idées créatives, ces outils ont marqué un énorme changement culturel et éliminé le travail humain technique.

Une société d’intelligence artificielle basée à San Francisco a lancé l’année dernière DALL-E – du nom de “WALL-E”, le film d’animation de 2008, et de Salvador Dalí, le peintre surréaliste -, un système qui peut créer des images numériques en alimentant simplement une description de ce que l’utilisateur veut voir.

Cependant, il n’a pas immédiatement suscité l’intérêt du public.

Ce n’est que lorsque OpenAI a introduit DALL-E 2, une version améliorée de DALL-E, que la technologie a commencé à gagner du terrain.

DALL-E 2 a été commercialisé comme un outil pour les graphistes, leur permettant de prendre des raccourcis pour créer et éditer des images numériques.

De même, des mesures restrictives ont été ajoutées au logiciel pour empêcher son utilisation abusive.

L’outil n’est pas encore disponible pour tout le monde. a actuellement 100 000 utilisateurs dans le monde, et la société espère le rendre accessible à au moins 1 million de personnes dans un proche avenir.

« Nous espérons que les gens aiment l’outil et le trouvent utile. Pour moi, c’est la chose la plus délicieuse à jouer avec laquelle nous ayons créé jusqu’à présent. Je trouve que cela améliore la créativité, est utile dans de nombreuses situations différentes et amusant d’une manière que je n’ai pas ressentie avec la technologie depuis un moment”, a déclaré le PDG d’OpenAI, Sam Altman. il a écrit.

Cependant, la nouvelle technologie a de nombreuses implications alarmantes. Les experts disent que si ce type de technologie s’améliore, il pourrait être utilisé pour diffuser de la désinformation, ainsi que générer de la pornographie ou des discours de haine.

De même, les systèmes d’IA peuvent montrer un parti pris envers les femmes et les personnes de couleur parce que les données sont extraites de pools en ligne et de textes qui présentent un parti pris similaire.

“Vous pourriez l’utiliser pour de bonnes choses, mais vous pourriez certainement l’utiliser pour toutes sortes d’autres applications folles et inquiétantes, et cela inclut des contrefaçons profondes”, a déclaré le professeur Subbarao Kambhampati. a dit Le journal New York Times. Kambhampati enseigne l’informatique à l’Arizona State University.

L’entreprise politique de contenu interdit le harcèlement, l’intimidation, la violence et la génération de contenu sexuel et politique. Cependant, les utilisateurs qui y ont accès peuvent toujours créer n’importe quel type d’image d’ensemble de données.

“Il va être très difficile de s’assurer que les gens ne les utilisent pas pour créer des images que les gens trouvent offensantes”, a déclaré Toby Walsh, chercheur en intelligence artificielle. a dit Le gardien.

Walsh a averti que le public devrait généralement être plus prudent quant aux choses qu’il voit et lit en ligne, car des images fausses ou trompeuses inondent Internet.

Les développeurs de DALL-E tentent activement de lutter contre l’utilisation abusive de leur technologie.

Par exemple, les chercheurs tentent d’atténuer le contenu potentiellement dangereux dans l’ensemble de données de formation, en particulier les images qui pourraient être préjudiciables aux femmes.

Cependant, ce processus de nettoyage se traduit également par la génération de moins d’images de femmes, contribuant à un « effacement » du genre.

“Le biais est un problème majeur à l’échelle de l’industrie pour lequel personne n’a de réponse excellente et infaillible”, Miles Brundage, responsable de la recherche sur les politiques chez OpenAI, a dit. “Donc, une grande partie du travail consiste maintenant à être transparent et direct avec les utilisateurs sur les limitations restantes.”

Cependant, OpenAI n’est pas la seule entreprise ayant le potentiel de faire des ravages dans le cyberespace.

Bien qu’OpenAI n’ait pas publié son code pour DALL-E 2, une startup technologique londonienne, Stability AI, a partagé le code d’un modèle d’imagerie similaire pour que quiconque puisse l’utiliser et reconstruire le programme avec moins de restrictions.

Le fondateur et PDG de la société, Emad Mostaque, a dit Le Washington Post estime qu’il est nécessaire de rendre ce type de technologie accessible au public, quels que soient les dangers potentiels. “Je crois que le contrôle de ces modèles ne devrait pas être déterminé par un groupe de personnes autoproclamées à Palo Alto”, a-t-il déclaré. “Je pense qu’ils devraient être ouverts.”

Mostaque fait preuve d’une ligne de logique naturellement imprudente. Laisser ces puissants outils d’IA tomber entre les mains de n’importe qui entraînera sans aucun doute des conséquences drastiques à grande échelle.

La technologie, en particulier les logiciels comme DALL-E 2, peut facilement être utilisée à mauvais escient comme un outil pour propager la haine et la désinformation et doit donc être réglementée avant qu’il ne soit trop tard.

Leave a Comment

Your email address will not be published.