Une nouvelle méthode de comparaison des réseaux de neurones expose le fonctionnement de l'intelligence artificielle

Une nouvelle méthode de comparaison des réseaux de neurones expose le fonctionnement de l’intelligence artificielle

Les chercheurs de Los Alamos cherchent de nouvelles façons de comparer les réseaux de neurones. Cette image a été créée avec un logiciel d’intelligence artificielle appelé Stable Diffusion, en utilisant l’invite “Regarder dans la boîte noire des réseaux de neurones”. Crédit : Laboratoire national de Los Alamos

Une équipe du Laboratoire national de Los Alamos a développé une nouvelle approche pour comparer les réseaux de neurones qui analysent la “boîte noire” de l’intelligence artificielle afin d’aider les chercheurs à comprendre le comportement des réseaux de neurones. Les réseaux de neurones reconnaissent les modèles dans les ensembles de données ; ils sont utilisés dans toute la société, dans des applications telles que les assistants virtuels, les systèmes de reconnaissance faciale et les voitures autonomes.

« La communauté de recherche sur l’IA n’a pas nécessairement une compréhension complète de ce que font les réseaux de neurones ; ils nous donnent de bons résultats, mais nous ne savons pas comment ni pourquoi », a déclaré Haydn Jones, chercheur au Advanced Research in Cyber ​​Systems Group à Los Alamos. “Notre nouvelle méthode fait un meilleur travail de comparaison des réseaux de neurones, ce qui est une étape cruciale vers une meilleure compréhension des mathématiques derrière l’IA.”

Jones est l’auteur principal de l’article « Si vous en avez formé un, vous les avez tous formés : la similarité inter-architecture augmente avec la robustesse », qui a récemment été présenté à la conférence sur l’incertitude dans l’intelligence artificielle. En plus d’étudier la similarité des réseaux, l’article est une étape cruciale vers la caractérisation du comportement des réseaux de neurones robustes.

Les réseaux de neurones sont performants mais fragiles. Par exemple, les voitures autonomes utilisent des réseaux de neurones pour détecter les signaux. Lorsque les conditions sont idéales, ils le font très bien. Cependant, la moindre aberration – comme un autocollant sur un signal d’arrêt – peut amener le réseau de neurones à mal identifier le signal et à ne jamais s’arrêter.

Pour améliorer les réseaux de neurones, les chercheurs cherchent des moyens d’améliorer la robustesse du réseau. Une approche de pointe consiste à “attaquer” les réseaux au cours de leur processus de formation. Les chercheurs introduisent intentionnellement des aberrations et entraînent l’IA à les ignorer. Ce processus s’appelle la formation contradictoire, et il rend essentiellement plus difficile de tromper les réseaux.

Jones, les collaborateurs de Los Alamos, Jacob Springer et Garrett Kenyon, et le mentor de Jones, Juston Moore, ont appliqué leur nouvelle métrique de similarité de réseau aux réseaux de neurones formés par l’adversaire et ont étonnamment découvert que la formation de l’adversaire fait converger les réseaux de neurones dans le domaine de la vision par ordinateur vers des représentations très similaires des données, quelle que soit l’architecture du réseau, à mesure que l’ampleur de l’attaque augmente.

“Nous avons constaté que lorsque nous entraînons des réseaux de neurones à être robustes contre les attaques adverses, ils commencent à faire les mêmes choses”, a déclaré Jones.

Il y a eu beaucoup d’efforts dans l’industrie et le milieu universitaire pour trouver la “bonne architecture” pour les réseaux de neurones, mais les conclusions de l’équipe de Los Alamos indiquent que l’introduction d’une formation contradictoire réduit considérablement cet espace de recherche. En conséquence, la communauté de recherche en IA n’aura peut-être pas besoin de passer autant de temps à explorer de nouvelles architectures, sachant que la formation contradictoire fait converger diverses architectures vers des solutions similaires.

“En découvrant que les réseaux de neurones robustes sont similaires les uns aux autres, nous facilitons la compréhension du fonctionnement réel de l’IA robuste. Nous pourrions même découvrir des indices sur la façon dont la perception se produit chez les humains et les autres animaux”, a déclaré Jones.


Briser les IA pour les améliorer


Plus d’information:
Haydn T. Jones et al. Si vous en avez formé une, vous les avez toutes formées : la similarité entre les architectures augmente avec la robustesse, (2022)

Fourni par le laboratoire national de Los Alamos

Devis: Une nouvelle méthode de comparaison des réseaux de neurones expose le fonctionnement de l’intelligence artificielle (2022, 13 septembre) récupéré le 13 septembre 2022 sur https://techxplore.com/news/2022-09-method-neural-networks-exposes-artificiel.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation loyale à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni à titre informatif uniquement.

Leave a Comment

Your email address will not be published.