‘Artificiel’ + ‘Intelligence’ = Confusion Publique

Combinez les mots “artificiel” et “intelligence” – formant ainsi un mot “IA” – et ce mot est susceptible de générer des spéculations considérables et infondées parmi le public, en particulier lorsqu’il y a peu ou pas de compréhension technique de ce qui équivaut à un battage médiatique ( ou c’est-à-dire hyperbole) sur AI.

Ces dernières semaines, il y a eu “beaucoup de bruit pour rien” à la suite de la publication par l’ancien ingénieur logiciel de Google, Blake Lemoine, d’une transcription du prétendu “dialogue” qu’il a eu avec le grand modèle linguistique (LLM) de Google appelé “LaMDA” (un acronyme de ‘langage modèle pour les applications de dialogue’).

Lemoine a contribué à des commentaires publics qui ont intensifié beaucoup de spéculations et d’inquiétudes quant au fait que Google cachait au public le « fait » que LaMDA est une IA devenue « sensible », qui prétend avoir une « âme », qu’elle prétend être une personne » , qui a des «droits» comme une personne et ne devrait donc pas être traité comme une simple «propriété» au sens où toute technologie ou tout outil peut être utilisé, voire jeté.

Le problème dans le battage médiatique, ajoutant à la confusion et aux craintes du public à propos de quelque chose d’entièrement nouveau et inquiétant chez Google, est le manque de réflexion critique sur ce que Lemoine a publié et la manière dont il l’a fait. Lemoine lui-même est un exemple de quelqu’un qui manque de pensée critique lorsqu’il s’engage dans ses tâches en interagissant avec cette application de dialogue.

Lemoine a publié une transcription d’un prétendu “dialogue” que lui et un collègue de Google ont eu avec LaMDA. Le texte ou la transcription est présenté pour apparaître comme une longue conversation cohérente alors qu’il s’agit en fait d’un regroupement de différentes sessions interactives avec le modèle.

La transcription montre plus que tout à quel point Lemoine était naïf dans l’attribution de traits humains au modèle linguistique, y compris par des questions «directives» excessives qui ont conduit précisément au type de réponse que LaMDA a généré.

Comme Google lui-même l’a expliqué dans une description très technique du fonctionnement de LaMDA, l’application n’est que cela – une application informatique – donc cela n’a guère de sens d’utiliser le mot « intelligence » pour la caractériser. Bien sûr, il faut admettre que LaMDA est une application très complexe qui fonctionne à une vitesse de calcul vertigineuse pour générer un texte prédictif statistiquement probable.

Mais cela dépend entièrement de la taille de la base de données (paramètres et jetons, tels que des phrases) et des règles (algorithmes) qui régissent le processus de réponse rapide lancé par un utilisateur. Posez une question à LaMDA et il émettra une réponse basée sur l’énorme base de données sur laquelle il est “formé”.

Comme la base de données comprend déjà des textes (données) en anglais sur la sentience, la conscience, les personnes, les âmes, etc., les réponses LaMDA suivront “automatiquement” les demandes reçues en entrée d’un utilisateur dans une interface homme-ordinateur. . Lorsque des questions ou des invites telles que Lemoine sont saisies en entrée, les réponses de sortie sont coordonnées en fonction de la probabilité de chaînes de texte prédites déjà dans la base de données.

Puisque tout cela est automatisé, il n’y a pas d'”IA” au sens populaire mais erroné d’une “entité vivante” qui a une conscience de soi, une sensibilité ou une conscience de la manière dont ces concepts sont utilisés dans le langage courant ou utilisés plus techniquement par les philosophes qui discutent de philosophie de l’esprit, de philosophie du langage et de logique ou d’éthique.

Google avait le droit de mettre Lemoine en congé administratif, puis de le licencier pour avoir enfreint les politiques de confidentialité de l’entreprise, publié la transcription qu’il a partagée sur les réseaux sociaux et affirmé à tort que LaMDA est consciencieux. Mais le fait que quelqu’un comme Lemoine puisse être employé dans la section IA responsable de Google soulève des questions sur l’adéquation du contrôle qualité de Google sur ses ingénieurs logiciels.

Lemoine est peut-être une valeur aberrante, mais ses actions montrent les dommages causés à l’intérêt public par l’utilisation de tels modèles de langage et les utilisateurs étant dupés par un dialogue apparemment réaliste.

Tous les ingénieurs, y compris les ingénieurs en logiciel, ont des obligations fondamentales pour protéger la sécurité publique, la santé publique et le bien-être public. Ceci est clairement exprimé dans ses codes d’éthique professionnelle qui énoncent des principes fondamentaux et des règles subsidiaires de pratique.

Lemoine a estimé qu’il rendait service au public en divulguant les données propriétaires de Google. Mais, influencé par ses propres préjugés de croyance (il se dit mystique chrétien), Lemoine ne considère pas que son premier devoir professionnel est de ne pas nuire par ses actes.

Ses actions publiques ultérieures et ses commentaires dans des entretiens avec les médias ont ajouté à l’hyperbole sans fondement selon laquelle LaMDA est une IA “vivante”, une telle IA menacera bientôt le bien-être humain, etc.

Par conséquent, Lemoine doit être critiqué et le plus tôt possible, le public doit être désabusé de ses affirmations absurdes et désormais se méfier des ingénieurs logiciels qui ne connaissent pas la différence entre une personne consciente de soi et ce que les experts en IA appellent cela “stochastique”. perroquet’ – ce dernier étant ce qu’est vraiment LaMDA.

Même comme un perroquet ou un mainate imite ou simule des mots parlés sans comprendre ces sons comme un langage humain ou pour comprendre le sens de ces mots, LaMDA fait de même, bien qu’à une vitesse de calcul probabiliste (stochastique) élevée du langage généré. réponses prédictives aux invites du langage.

LaMDA est une application de modèle de langage, mais il n’existe pas d'”intelligence” “artificielle”. Grâce à son traitement du langage à réponse immédiate, il ne nous montre que ce que nous avons nous-mêmes pensé, dit et cru, car c’est ce qui se trouve dans sa base de données.

Et, cela peut être bon comme compagnon conversationnel automatisé ou comme interlocuteur informatisé car il est réglé pour éliminer les préjugés, la discrimination et assurer la factualité des réponses. Cependant, il faut veiller à ne pas être assez crédule pour projeter la conscience de soi, la sensibilité, la conscience et donc la « personnalité » sur ces technologies.

L’ingénierie informatique n’en est pas encore là – et ne le sera peut-être jamais, puisque, philosophiquement parlant, les ordinateurs ne peuvent pas « penser » comme les humains et que les méthodes de calcul intégrées à une application comme LaMDA ne « pensent » pas comme les humains.

Sur ce point, les informaticiens les plus sensés, les philosophes de l’esprit, les philosophes du langage et les éthiciens sont tous d’accord. Ainsi, le public peut avoir l’esprit tranquille au lieu de céder à l’hyperbole de Blake Lemoine.


Norman K Swazo est professeur de philosophie au Département d’histoire et de philosophie et directeur du Bureau de recherche de l’Université Nord-Sud.

Avis de non-responsabilité : les points de vue et opinions exprimés dans cet article sont ceux de l’auteur et ne reflètent pas nécessairement les points de vue et opinions de The Business Standard.

window.pg=window.pg||[];pg.acq=pg.acq||[];
pg.acq.push(function() {

//FB Pixel code

!function(f,b,e,v,n,t,s)
{if(f.fbq)return;n=f.fbq=function(){n.callMethod?
n.callMethod.apply(n,arguments):n.queue.push(arguments)};
if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′;
n.queue=[];t=b.createElement(e);t.async=!0;
t.src=v;s=b.getElementsByTagName(e)[0];
s.parentNode.insertBefore(t,s)}(window, document,’script’,
‘https://connect.facebook.net/en_US/fbevents.js’);
fbq(‘init’, ‘2789286657983999’);
fbq(‘track’, ‘PageView’);

});

!function(f,b,e,v,n,t,s)
{if(f.fbq)return;n=f.fbq=function(){n.callMethod?
n.callMethod.apply(n,arguments):n.queue.push(arguments)};
if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version=’2.0′;
n.queue=[];t=b.createElement(e);t.async=!0;
t.src=v;s=b.getElementsByTagName(e)[0];
s.parentNode.insertBefore(t,s)}(window, document,’script’,
‘https://connect.facebook.net/en_US/fbevents.js’);
fbq(‘init’, ‘464719554788259’);
fbq(‘track’, ‘PageView’);

Leave a Comment

Your email address will not be published.