La loi proposée sur l’intelligence artificielle pourrait affecter les employeurs du monde entier

Les entreprises ayant des employés dans l’Union européenne (UE) pourraient être affectées par une proposition historique visant à réglementer l’utilisation de l’intelligence artificielle (IA) dans la région.

La loi sur l’intelligence artificielle de l’UE, actuellement en cours dans le processus législatif, devrait façonner la technologie et les normes dans le monde entier.

La loi comprend un large ensemble de règles visant à réglementer l’utilisation de l’IA dans tous les secteurs et activités sociales, a noté Jean-François Gerard, avocat chez Freshfields Bruckhaus Deringer à Bruxelles.

Le règlement sur l’IA propose une échelle mobile de règles basées sur le risque : plus le risque perçu est élevé, plus la règle est stricte, a-t-il déclaré. La proposition classerait différentes applications d’IA en risques inacceptables, élevés, limités ou minimes, selon un briefing client que Gerard a aidé à produire.

La proposition de loi, que la Commission européenne (CE) a introduite en avril 2021, devrait jouer un rôle important dans l’élaboration de l’IA dans l’UE, servir de modèle aux autorités de réglementation du monde entier et affecter les entreprises du monde entier qui ont des activités en Europe. .

“La loi sur l’IA vise à garantir que les systèmes d’IA placés et utilisés sur le marché européen sont sûrs et respectent la législation existante sur les droits fondamentaux et les valeurs de l’Union européenne, y compris le règlement général sur la protection des données. [GDPR]», a déclaré Johanne Boelhouwer, avocate chez Dentons à Amsterdam.

« De cette manière, la loi facilite un marché intérieur pour des systèmes d’IA sûrs et fiables, empêchant la fragmentation du marché. L’IA doit être légitime, éthique et techniquement robuste », a-t-il ajouté.

Une approche basée sur les risques

Dans son approche basée sur les risques, la loi sur l’IA fait la distinction entre autoriser un régime juridique léger pour les applications d’IA présentant un risque négligeable et interdire les applications présentant un risque inacceptable, a déclaré Boelhouwer. “Entre ces extrêmes, des réglementations plus strictes s’appliquent à mesure que le risque augmente. Elles vont des évaluations d’impact des lois d’autorégulation non contraignantes avec des codes de conduite aux exigences de conformité onéreuses et auditées en externe”, a-t-elle déclaré.

Les systèmes d’IA à haut risque seraient autorisés sur le marché européen s’ils satisfont aux exigences obligatoires et subissent une évaluation de conformité préalable, selon Boelhouwer, qui a déclaré que ces systèmes doivent respecter les règles relatives à la gestion des données, la transparence, la tenue des dossiers, la surveillance humaine, l’exactitude et la sécurité.

La proposition deviendra loi une fois que la CE – représentant les États membres de l’UE – et le Parlement européen se seront mis d’accord sur une version commune du texte, a-t-elle déclaré. Les négociations doivent être complexes, compte tenu des milliers d’amendements que les groupes politiques ont proposés au Parlement européen, a déclaré Boelhouwer.

En plus de son application dans les pays membres de l’UE, la loi devrait intégrer des normes et des valeurs dans l’architecture de la technologie de l’IA, étendant son influence au-delà de l’Europe, selon Marc Elshof, avocat chez Dentons à Amsterdam.

Usages de l’emploi : risque élevé

Les systèmes d’IA utilisés dans des contextes d’emploi tels que le recrutement et l’évaluation des performances seraient considérés comme “à haut risque” en vertu du projet de loi et soumis à de lourdes exigences de conformité, ont déclaré des experts juridiques.

“Ce sera nouveau pour de nombreux employeurs qui utilisent depuis des années des outils dits d’analyse des personnes avec des exigences de conformité limitées”, en plus de la confidentialité des données et, dans certaines juridictions, de la nécessité d’informer et de consulter les représentants des employés, a déclaré Gerard.

Les employeurs devraient s’assurer que les systèmes d’IA qu’ils envisagent d’utiliser dans ces contextes répondent à toutes les exigences de la loi, y compris qu’ils ont subi avec succès une évaluation de conformité et une certification de conformité, a déclaré Boelhouwer. L’évaluation de la conformité serait un must pour les fournisseurs de systèmes d’IA, mais les employeurs ne devraient pas utiliser des systèmes qui n’ont pas réussi l’évaluation, a-t-elle déclaré.

“Par exemple, les employeurs qui envisagent de donner aux employés une mauvaise évaluation des performances basée sur des algorithmes capables de lire les sentiments des gens à travers le texte, le ton de la voix, les expressions faciales et les gestes ne peuvent pas simplement mettre en œuvre ces systèmes sans garantir le respect de la loi sur l’IA”, a-t-elle déclaré. .

Impact discriminatoire

Ces systèmes d’IA peuvent grandement affecter les perspectives de carrière et les moyens de subsistance futurs des gens, a noté Boelhouwer.

“La loi souligne que les entreprises doivent être très attentives aux biais des systèmes d’IA tout au long du processus d’évaluation, de promotion ou de fidélisation de ces personnes. Ces systèmes d’IA peuvent entraîner des discriminations, par exemple, à l’égard des femmes, de certaines tranches d’âge, des personnes handicapées ou personnes de certaines origines raciales ou ethniques ou d’orientation sexuelle », a-t-elle déclaré.

Les systèmes d’IA utilisés pour surveiller les performances et le comportement des employés peuvent également affecter leurs droits à la protection des données et à la vie privée, et les employeurs doivent continuer à se conformer au RGPD lorsque l’utilisation des systèmes d’IA implique le traitement de données personnelles, a-t-il ajouté.

“Les algorithmes de recrutement, qui ont été largement utilisés par les grands employeurs, en particulier dans l’industrie technologique, ont conduit à une discussion animée sur les biais algorithmiques et la discrimination”, a déclaré Gerard, ajoutant que certains ont appelé à l’interdiction de l’IA dans le recrutement.

La loi s’appliquerait aux utilisateurs d’IA au sein de l’UE ainsi qu’aux utilisateurs d’autres pays si les résultats du système, tels que le contenu, les recommandations ou les décisions, affectaient l’activité dans l’UE.

Dinah Wisenberg Brin est une journaliste et écrivaine basée à Philadelphie.

//window.fbAsyncInit = function() { FB.init({ appId: ‘649819231827420’, xfbml: true, version: ‘v2.5’ }); };

//(function(d, s, id){
// var js, fjs = d.getElementsByTagName(s)[0];
// if (d.getElementById(id)) {return;}
// js = d.createElement(s); js.id = id;
// js.src = “https://connect.facebook.net/en_US/sdk.js”;
// fjs.parentNode.insertBefore(js, fjs);
//}(document, ‘script’, ‘facebook-jssdk’));
function shrm_encodeURI(s) { return encodeURIComponent(s); }
function RightsLinkPopUp() {
var url = “https://s100.copyright.com/AppDispatchServlet”;
var location = url + “?publisherName=” + shrm_encodeURI(“shrm”) + “&publication=” + shrm_encodeURI(“Legal_Issues”) + “&title=” + shrm_encodeURI(“Justices Hear ERISA Reimbursement Case”) + “&publicationDate=” + shrm_encodeURI(“11/11/2015 12:00:00 AM”) + “&contentID=” + shrm_encodeURI(“6badda72-62e7-49e8-b4bd-ebbd02a72a17”) + “&charCnt=” + shrm_encodeURI(“7399”) + “&orderBeanReset=” + shrm_encodeURI(“True”);
window.open(location, “RightsLink”, “location=no,toolbar=no,directories=no,status=no,menubar=no,scrollbars=yes,resizable=yes,width=650,height=550”);
}

Leave a Comment

Your email address will not be published.