L’intelligence artificielle apprendra-t-elle la morale ?

Opinions exprimées par Chef d’entreprise les contribuables sont à vous.

En 2002, j’ai attendu plus de dix minutes pour télécharger une seule chanson à l’aide d’un modem commuté 56k. Les cassettes audio étaient encore très en vogue. Avance rapide jusqu’en 2022, et vous pouvez désormais demander à votre téléphone ou à votre voiture de lire vos morceaux préférés à l’aide de votre voix. Nous pouvons nous connecter automatiquement à notre service de streaming musical préféré et il nous montre la musique et les artistes qui pourraient convenir en fonction de l’humeur, de l’heure ou de l’occasion. Vous pouvez automatiser presque tous les systèmes électriques de votre maison pour qu’ils fonctionnent selon votre horaire (rappelez-leur de faire leurs courses, allumez les lumières lorsqu’ils entrent, etc.).

En une période relativement courte de deux décennies, nous avons cessé d’attendre que la technologie réponde aux machines et aux systèmes attendant notre prochaine commande. Que nous l’aimions ou que nous en soyons conscients, l’intelligence artificielle et l’automatisation jouent déjà un rôle important dans nos vies.

En relation : Préparez-vous à découvrir comment l’IA va changer notre façon de travailler en 2022 et au-delà

L’IA en est à ses balbutiements

La technologie approche lentement d’un niveau d’intelligence qui peut anticiper nos besoins. Nous sommes à l’âge d’or de l’IA et pourtant nous commençons à peine à voir ses applications. Les étapes suivantes vont d’une routine à un processus plus profond et plus abstrait. Par exemple, si vous buvez habituellement du café tous les matins, il est facile pour une IA d’apprendre votre routine. Mais pour le moment, il ne peut même pas commencer à aborder ce que vous pensez autour de votre café. La prochaine étape dans l’évolution de l’IA pourrait être Google Home ou Amazon Alexa, sachant que vous êtes sur le point de commencer votre journée et que vous pouvez livrer votre emploi du temps sans avertissement.

L’intelligence artificielle commence à passer de l’exécution de tâches répétitives à la prise de décisions d’ordre supérieur. Nous commençons à peine à voir les capacités de l’IA. Au cours des cinq à dix prochaines années, l’IA aura probablement un impact sur tous les tissus de notre vie. Bien que nous soyons plus qu’heureux de laisser l’IA travailler pour nous, que se passe-t-il lorsque nous commençons à externaliser la réflexion et la prise de décision complexes ? Notre capacité à prendre des décisions repose sur notre capacité de conscience, d’empathie et notre capacité à prendre position moralement. Lorsque nous laissons les machines réfléchir à notre place, les chargeons-nous également du réseau complexe de la moralité humaine ?

En relation: Méfiez-vous de ces 5 problèmes d’IA dans les RH

Qui décide quelle morale est juste ?

Imiter la prise de décision humaine n’est pas simplement une question de logique ou de technologie. Au cours des siècles de civilisation humaine, nous avons développé des codes moraux et éthiques véritablement complexes. Celles-ci sont influencées autant par les normes sociales que par l’éducation, la culture et, dans une large mesure, la religion. Le problème est que la moralité reste une notion nébuleuse sans universaux convenus.

Ce qui est perçu comme moral dans une société ou une religion peut toucher le cœur de tout dans une autre. La réponse peut varier selon le contexte et qui prend la décision. Lorsque nous pouvons à peine équilibrer nos biais cognitifs, comment tracer la voie pour que les machines évitent les biais de données ? Il est de plus en plus évident que certaines de nos technologies sont déjà aussi imparfaites que nous. Les systèmes de reconnaissance faciale et les assistants numériques montrent des signes de discrimination à l’égard des femmes et des personnes de couleur.

Le scénario le plus probable est que l’IA suit des règles de moralité prescrites par des groupes ou des sociétés définis. Imaginez acheter un code d’éthique de base et le mettre à jour avec des packs de moralité en fonction de vos tendances. Si vous êtes chrétien, le paquet de moralité suivra le code d’éthique chrétien standard (ou aussi proche que possible). Dans ce scénario hypothétique, nous avons toujours le contrôle sur les principes moraux que la machine suivra. Le problème se pose lorsque cette décision est prise par quelqu’un d’autre. Imaginez simplement les implications d’un gouvernement autoritaire mettant en œuvre sa version de la moralité sur des citoyens impitoyablement surveillés. Le débat sur qui pourrait établir un tel lien aurait des implications considérables.

En relation: Les histoires au coucher peuvent-elles nous aider à éviter l’apocalypse des robots?

Que peut signifier l’IA morale pour l’avenir ?

Les applications d’une IA morale peuvent remettre en question la croyance. Par exemple, au lieu de la version actuelle des prisons surpeuplées, l’IA pourrait faire de la réhabilitation des criminels une possibilité réelle. Pourrions-nous oser rêver d’un avenir où nous pourrions réécrire la morale des criminels avec une puce et empêcher le meurtre ? Sera-ce une aubaine pour la société ou un cauchemar éthique ? Cela pourrait-il refléter le film “Les derniers jours du crime américain ?” Même des applications plus petites telles que les systèmes intégrés de surveillance continue du glucose (iCGM) dans les appareils portables pour optimiser l’alimentation et le mode de vie peuvent avoir un impact à long terme sur notre société et notre bien-être.

Aussi compliquée que soit la moralité dans l’IA, il convient de rappeler que les humains sont une race tenace. Nous avons tendance à nous tromper sur beaucoup de choses dans la première ébauche. Comme l’a dit Shakespeare, “par des allusions, il trouve des directions”. En d’autres termes, nous avons tendance à nous en tenir au problème.

Presque toutes nos avancées technologiques actuelles semblaient impossibles à un moment donné de l’histoire. Cela prendra probablement des décennies d’essais et d’erreurs, mais nous avons déjà commencé la première ébauche avec des projets comme Delphes. Même une première itération d’une IA qui essaie d’être éthiquement informée, socialement prudente et culturellement inclusive nous donne de l’espoir. Peut-être que la technologie peut enfin nous indiquer cette carte au trésor qui promet un avenir moral idyllique dont nous rêvons collectivement depuis des siècles.

Connexe : Considérations éthiques de la transformation numérique

Leave a Comment

Your email address will not be published.