L’utilisation de l’intelligence artificielle représente un casse-tête ESG pour le secteur financier mondial

L’intelligence artificielle (IA) est souvent présentée comme la panacée pour la capacité des sociétés de services financiers à faire face à l’assaut imminent des données résultant de la réglementation environnementale, sociale et de gouvernance (ESG). Cependant, l’ESG constitue également une menace existentielle pour l’utilisation de l’IA par le secteur des services financiers.

L’Union européenne Règlement sur la divulgation en matière de finance durable obligeait les sociétés de gestion d’actifs à commencer à collecter des millions de points de données auprès des entreprises dans lesquelles elles investissaient, et la prochaine directive sur les rapports d’entreprise en matière de développement durable ne fera qu’augmenter le volume de points de données. En outre, il y a les données collectées dans le cadre de l’initiative du Groupe de travail sur les informations financières liées au climat (TCFD) et les plans du Conseil international des normes de durabilité visant à créer une base de référence pour les rapports ESG.

Pris ensemble, il est clair que les systèmes basés sur l’IA seront essentiels aux efforts des entreprises pour comprendre – et tirer profit de – toutes ces exigences.

Cependant, les problèmes potentiels pour les sociétés de services financiers utilisant l’IA se cachent sous les trois colonnes E, S et G. L’empreinte carbone du stockage et du traitement des données est énorme et croissante, il a déjà été démontré que les algorithmes discriminent certains groupes de population et un manque des compétences technologiques à la fois dans la haute direction et dans l’ensemble de la main-d’œuvre rend les entreprises vulnérables aux erreurs.

Environnemental : empreinte carbone de la consommation d’énergie

Selon l’Agence internationale de l’énergie, la consommation d’électricité des centres de données de refroidissement pourrait représenter 15 % à 30 % de l’utilisation totale d’un pays d’ici 2030. L’exécution d’algorithmes pour traiter les données nécessite également une consommation d’énergie.

Selon Tanya Goodin, éthicienne de la technologie et membre de la Royal Society of Arts de Londres, la formation de l’IA à une utilisation professionnelle a un impact environnemental important. “La formation à l’intelligence artificielle est un processus énergivore”, explique Goodin. “L’IA est entraînée par apprentissage en profondeur, ce qui implique le traitement de grandes quantités de données.”

Des estimations récentes d’universitaires suggèrent que l’empreinte carbone de la formation d’une seule IA est de 284 tonnes, ce qui équivaut à cinq fois les émissions à vie d’une voiture moyenne. Des calculs séparés placent la consommation d’énergie d’un supercalculateur égale à celle de 10 000 foyers. Cependant, la comptabilisation de cette énorme consommation d’électricité est souvent cachée. où une organisation il a vos centres de données, les émissions de carbone seront capturées et reportées dans vos émissions TCFD Scope 1 et 2. Cependant, si, comme c’est le cas dans un nombre croissant d’entreprises financières, les centres de données sont externalisés auprès d’un fournisseur de cloud, les émissions tombent dans le Scope 3 en termes de reporting TCFD, qui ont tendance à se faire sur une base volontaire.

“Je pense que c’est une désorientation classique – presque comme un tour de magie de désorientation”, explique Goodin. “L’IA est vendue comme une solution au changement climatique, et si vous parlez à l’une des entreprises technologiques, elle vous dira qu’il existe un énorme potentiel d’utilisation de l’IA pour résoudre les problèmes climatiques, mais c’est en fait une énorme partie de celui-ci. de le problème.”

Social : algorithmes discriminants et étiquetage des données

Les algorithmes ne sont aussi bons que les personnes qui les conçoivent et les données sur lesquelles ils sont formés, un point reconnu par la Banque des règlements internationaux (BRI) au début de cette année. “IA/ML [machine learning] Les modèles (comme les modèles traditionnels) peuvent refléter des biais et des inexactitudes dans les données sur lesquelles ils sont formés et entraîner potentiellement des résultats contraires à l’éthique s’ils ne sont pas gérés correctement », a déclaré la BRI.

Kate Crawford, co-fondatrice de l’AI Now Institute de l’Université de New York, est allée plus loin en mettant en garde contre les risques éthiques et sociaux inhérents à de nombreux systèmes d’IA dans son livre Atlas de l’IA. “[The] la séparation des questions éthiques des techniques reflète un problème plus large dans le domaine [of AI]où la responsabilité pour les dommages n’est pas reconnue ou considérée comme hors de portée », déclare Crawford.

Il n’est donc peut-être pas surprenant que les sociétés de prêts hypothécaires, de prêts et d’assurance se soient déjà retrouvées du mauvais côté des régulateurs lorsque l’IA qu’elles utilisaient pour prendre des décisions sur les prêts et les prix des assurances a fini par absorber et perpétuer certains biais.

En 2018, par exemple, des chercheurs de l’Université de Californie-Berkeley ont découvert que l’IA utilisée dans les décisions de prêt était perpétuer les préjugés raciaux. En moyenne, les emprunteurs latinos et afro-américains payaient 5,3 points de base de plus en intérêts sur leurs prêts hypothécaires que les emprunteurs blancs. Au Royaume-Uni, des recherches menées par l’Institut et la Faculté des actuaires et l’association caritative Fair By Design ont révélé que les personnes vivant dans des quartiers à faible revenu devaient payer 300 £. un an de plus pour l’assurance auto que ceux avec des véhicules identiques qui vivent dans des zones plus riches.

La Financial Conduct Authority (FCA) du Royaume-Uni a averti à plusieurs reprises les entreprises qu’elle surveillait la manière dont elles traitaient leurs clients. En 2021, la FCA a révisé les règles de tarification pour les assureurs après que des recherches ont montré que les algorithmes de tarification généraient des tarifs plus bas pour les nouveaux clients que ceux proposés aux clients existants. De même, le paquet législatif de l’UE sur l’IA semble être sur le point de qualifier les algorithmes utilisés dans la notation de crédit de risques élevés et d’imposer des obligations strictes à leur utilisation par les entreprises.

Les sociétés financières doivent également être conscientes de la façon dont les données ont été étiquetées, convient Goodin. «Lorsque vous construisez une IA, l’un des éléments qui est encore assez manuel est que les données doivent être étiquetées. L’étiquetage des données est sous-traité par toutes ces grandes entreprises technologiques, principalement dans les pays du tiers monde qui paient [poorly]», note-t-elle, ajoutant que ces situations s’apparentent à « l’industrie de la mode jetable et ses ateliers clandestins ».

Gouvernance : la direction ne comprend pas la technologie

Pour en revenir à la gouvernance, le plus gros problème des entreprises de services financiers est le manque de personnel qualifié sur le plan technologique, et cela inclut les cadres supérieurs.

“Il y a un manque fondamental de connaissances et d’expérience dans l’industrie de l’investissement dans les données”, déclare le Dr. Rory Sullivan, co-fondateur et directeur de Chronos Sustainability et professeur invité au Grantham Research Institute on Climate Change de la London School of Economics. .

Les sociétés d’investissement prennent aveuglément des données et les utilisent pour créer des produits sans comprendre aucune des incertitudes ou des limites qui pourraient être dans les données, dit Sullivan. «Nous avons donc un problème de capacité et d’expérience, et c’est un problème de capacité très technique autour des données et de l’interprétation des données», ajoute-t-il.

Goodin est d’accord, notant que tous les conseils d’administration des sociétés financières devraient employer des éthiciens pour les conseiller sur l’utilisation de l’IA. “À l’avenir, un domaine assez vaste sera constitué d’experts en IA travaillant avec des entreprises pour déterminer la position éthique de l’IA qu’elles utilisent”, dit-elle.

“Je pense donc que les conseils d’administration des banques doivent réfléchir à la manière dont ils vont y accéder.”

Leave a Comment

Your email address will not be published.