Livre : L’IA, c’est cool, mais loin des capacités humaines

<!–

–>

En 2020, Elon Musk a déclaré que l’intelligence artificielle dépasserait l’intelligence humaine dans cinq ans, en passe de devenir “un dictateur immortel”. Un nouveau livre dit pas moyen, jamais.

Le livre, Pourquoi les machines ne domineront jamais le monde : une intelligence artificielle intrépide (Routledge, 2022), s’oppose à la possibilité de concevoir des machines capables de surpasser l’intelligence humaine.

Les co-auteurs sont Barry Smith, professeur au département de philosophie de l’Université de Buffalo, et Jobst Landgrebe, associé de recherche principal au département de philosophie et fondateur de Cognotekt, une société allemande d’IA.

L’apprentissage automatique et toutes les autres applications logicielles fonctionnelles – les fières réalisations de ceux qui sont impliqués dans la recherche sur l’IA – sont pour Smith et Landgrebe loin de tout ce qui ressemble aux capacités des humains. En outre, ils soutiennent que tout progrès progressif qui se déroule dans le domaine de la recherche sur l’IA, en termes pratiques, ne vous rapprochera pas de la possibilité de fonctionnement complet du cerveau humain.

Smith et Landgrebe proposent un examen critique des projections injustifiées de l’IA, telles que des machines se séparant de l’humanité, se reproduisant et devenant des “agents éthiques à part entière”. Il ne peut y avoir de volonté mécanique, disent-ils. Chaque application d’IA repose sur des intentions humaines, y compris des intentions de produire des résultats aléatoires.

Cela signifie que la singularité, un point où l’IA devient incontrôlable et irréversible (comme un moment Skynet de la franchise de films Terminator) ne se produira pas. Les affirmations sauvages du contraire ne servent qu’à gonfler le potentiel de l’IA et à fausser la compréhension du public de la nature, des possibilités et des limites de la technologie, soutiennent-ils.

Traversant les frontières de diverses disciplines scientifiques, Smith et Landgrebe soutiennent que l’idée d’une intelligence générale artificielle (AGI) – la capacité des ordinateurs à imiter et à aller au-delà de l’intelligence générale des humains – repose sur des impossibilités mathématiques fondamentales qui sont analogues dans physique à l’impossibilité de construire une machine à mouvement perpétuel. Une IA qui correspondrait à l’intelligence générale des humains est impossible en raison des limites mathématiques de ce qui peut être modélisé et est “calculable”. Ces limites sont acceptées par pratiquement tous ceux qui travaillent sur le terrain ; pourtant, jusqu’à présent, ils n’ont pas réussi à évaluer ses conséquences sur ce qu’une IA peut accomplir.

“Pour surmonter ces obstacles, il faudrait une révolution des mathématiques qui serait d’une plus grande importance que l’invention du calcul par Newton et Leibniz il y a plus de 350 ans”, déclare Smith. “Nous ne retenons pas notre souffle.”

Landgrebe souligne que, « comme on peut le voir en discutant avec des mathématiciens et des physiciens travaillant sur les frontières de leurs disciplines respectives, rien à l’horizon ne laisse penser qu’une telle révolution pourrait un jour être réalisable. Les mathématiques ne peuvent pas modéliser complètement les comportements de systèmes complexes comme l’organisme humain », dit-il.

L’IA a de nombreuses réussites impressionnantes, et des fonds considérables ont été consacrés à l’avancement de ses frontières au-delà des réalisations dans des domaines étroits et bien définis tels que la traduction de texte et la reconnaissance d’images. Une grande partie de l’investissement pour pousser la technologie dans des domaines qui nécessitent l’équivalent de la machine à l’intelligence générale pourrait, selon les auteurs, être de l’argent perdu.

“Le générateur de texte GPT-3 s’est montré capable de produire différents types de résultats convaincants dans de nombreux domaines divergents”, déclare Smith. “Malheureusement, ses utilisateurs reconnaissent rapidement que ces sorties sont également des erreurs embarrassantes, de sorte que les sorties convaincantes elles-mêmes ont commencé à ressembler à rien de plus que des astuces de salon intelligentes.”

Le rôle de l’IA dans le séquençage du génome humain a conduit à des suggestions sur la manière dont elle peut aider à trouver des remèdes pour de nombreuses maladies humaines ; cependant, après 20 ans de recherches supplémentaires (auxquelles Smith et Landgrebe ont participé), peu de choses ont été produites pour soutenir ce genre d’optimisme.

“Dans certains contextes contraints entièrement déterminés par des règles, l’apprentissage automatique peut être utilisé pour créer des algorithmes qui surpassent les humains”, explique Smith. “Mais cela ne signifie pas qu’ils peuvent ‘découvrir’ les règles qui régissent toute activité qui se déroule dans un environnement ouvert, ce que le cerveau humain fait tous les jours.”

Bien sûr, les sceptiques de la technologie n’ont pas un bilan parfait. Ils se trompent sur les avancées allant des vols spatiaux aux nanotechnologies. Mais Smith et Landgrebe disent que leurs arguments sont basés sur les implications mathématiques de la théorie des systèmes complexes. Pour des raisons mathématiques, l’IA ne peut pas imiter le fonctionnement du cerveau humain. En fait, les auteurs disent qu’il est impossible de concevoir une machine qui rivalise avec les performances cognitives d’un corbeau.

“Une AGI est impossible”, déclare Smith. “Comme le montre notre livre, il ne peut y avoir d’intelligence générale artificielle car elle est au-delà de la limite de ce qui est, en principe, réalisable grâce à une machine.”

La source: Université de Buffalo

Leave a Comment

Your email address will not be published.