CXOtoday News Desk

L’intelligence artificielle et sa programmation humaine

La prise de décision est de plus en plus guidée par l’intelligence artificielle (IA) alors que les entreprises du monde entier tentent de réduire le temps et les frictions impliqués dans l’ensemble du processus de collecte et d’analyse des données. Compte tenu de la criticité de ces informations dans la prise de décisions commerciales, les algorithmes ont accru l’efficacité et la productivité.

Compte tenu de ce scénario, alors que les choses semblent assez casher pour que l’IA prenne en charge les emplois et libère l’intervention et l’utilisation humaines, à quoi ressembleraient les choses dans un univers alternatif tel que la justice pénale, les soins de santé ou l’augmentation de l’impact d’un État-providence ? Il y a des balançoires et il y a un nombre tout aussi important de ronds-points.

En fait, un regard sur le domaine du pronostic médical suffit pour dire que des procédures de détection jusqu’ici coûteuses pourraient coûter une fraction. Alors que de plus en plus de maladies sont diagnostiquées en plus grand nombre, l’apprentissage automatique, et donc l’IA, entre en jeu. Il en va de même pour la finance, où l’analyse des mégadonnées identifie rapidement les asymétries d’information entre les entreprises et les intermédiaires de crédit ou même les demandeurs de crédit individuels et les bureaux de crédit.

Mais, il y a aussi un autre côté

Cependant, tout comme nous nous délectons du potentiel croissant de l’IA, l’industrie et les partisans de l’apprentissage automatique sont également conscients que le comportement discriminatoire d’un être humain envers le reste de l’humanité pourrait être encodé dans l’apprentissage automatique, étant donné que le premier apprentissage continue d’être donnée par un esprit humain.

Dans un article sur « How to Regulate Automated Decision Making », publié dans période économiqueIvana Bartoletti, directrice mondiale de la confidentialité chez Wipro, met en garde contre la discrimination et les inégalités présentes dans le monde réel qui sont encodées dans les systèmes chargés de prendre des décisions sur l’avenir.

Cela fait de la prise de décision automatisée une action très imprudente et automatique, plutôt que d’explorer davantage la possibilité d’utiliser la technologie pour continuer à stimuler le progrès, ce qui devrait être fait, déclare Bartoletti, qui est également chercheur politique invité à l’Oxford Internet. Institute et auteur de « Une révolution artificielle, sur le pouvoir, la politique et l’IA ».

Félicitations à l’activisme et aux universitaires

L’employé de Wipro souligne le travail accompli par les militants et les universitaires pour expliquer comment les préjugés humains sont intégrés même dans les machines du futur. Il souligne comment la loi sur l’intelligence artificielle de l’UE pourrait devenir une sorte de norme mondiale.

« Dans l’EIE de l’UE, le risque est déterminé par l’impact que les produits d’IA ont sur les droits des personnes, y compris les droits fondamentaux qui sous-tendent l’écosystème juridique de l’UE. Ceux-ci incluent, par exemple, les droits à la vie privée et à la justice. L’EIA de l’UE recoupe les lois existantes sur la protection de la vie privée et des données et les étend dans une certaine mesure, car les premières couvrent des systèmes qui peuvent ne pas utiliser directement les données personnelles mais qui ont néanmoins un impact sur les individus et leurs moyens de subsistance », a-t-elle déclaré. dit dans votre essai.

Le débat doit continuer

À cet égard, elle estime qu’un débat en cours sur la manière de réglementer la prise de décision automatisée est de bon augure et montre comment la Chine a introduit des dispositions qui limitent le pouvoir des algorithmes sur l’autonomie des agences et des consommateurs. De même, aux États-Unis, des initiatives étatiques sont prises autour de l’utilisation des algorithmes dans l’administration et le secteur public.

Cependant, Bartoletti dit qu’il existe des domaines difficiles autour de la police prédictive et souligne le travail précurseur effectué par les commissions du marché intérieur et de la protection des consommateurs, des libertés civiles, de la justice et des affaires intérieures du Parlement européen. Ces organismes montrent comment les prédictions du système de justice pénale peuvent s’avérer un risque inacceptable pour l’innocence présumée.

Faisant appel à l’innovation ancrée dans la confiance des citoyens pour être durable, l’auteur affirme que des discussions devraient également avoir lieu autour des considérations environnementales lors du lancement de produits d’IA. Le “technosolutionnisme” est quelque chose qui est toujours en vogue et qui a tendance à nous assourdir de tout impact négatif de la technologie sur l’environnement avec son mantra assourdissant de relations publiques selon lequel la technologie peut résoudre tous nos problèmes quoi qu’il arrive.”, ajoute-t-elle.

Leave a Comment

Your email address will not be published.