Intelligence artificielle et maintien de l’ordre : c’est une question de confiance

De Robotcop pour rapport minoritaire, l’intersection de la police et de l’intelligence artificielle a longtemps attiré l’attention dans le domaine de la science-fiction à haut concept. Cependant, ce n’est qu’au cours de la dernière décennie que la recherche universitaire et la politique gouvernementale ont commencé à se concentrer sur cette question.

Le rapport ASPI de Teagan Westendorf, Intelligence artificielle et maintien de l’ordre en Australie, en est un exemple récent. Westendorf soutient que les cadres politiques et réglementaires du gouvernement australien ne tiennent pas suffisamment compte des limites actuelles de la technologie de l’IA et que ces limites peuvent « compromettre [the] principes d’une IA éthique, sûre et explicable » dans le contexte du maintien de l’ordre.

Mon objectif dans cet article est de développer l’analyse de Westendorf des défis potentiels dans l’utilisation de l’IA par les forces de l’ordre et de proposer des solutions.

Westendorf se concentre principalement sur un type particulier d’utilisation de l’IA par la police, à savoir l’inférence statistique utilisée pour prendre (ou éclairer) des décisions – en d’autres termes, une technologie qui entre globalement dans la catégorie de la “police prédictive”.

Bien que les applications de police prédictive présentent les problèmes éthiques et juridiques les plus épineux et méritent donc une attention particulière, il est également important de mettre en évidence d’autres applications d’IA dans le domaine de la police. Par exemple, l’IA peut aider aux enquêtes rationaliser la transcription des entretiens et l’analyse des images CCTV. Algorithmes de reconnaissance d’images peut également aider à détecter et à traiter matériel d’exploitation des enfants, contribuant à limiter l’exposition humaine. Attirer l’attention sur ces applications peut aider à éviter que la conversation ne se concentre trop sur un ensemble d’utilisations limité mais controversé. Une telle concentration pourrait risquer d’empoisonner le puits d’application de la technologie de l’IA aux domaines parfois fastidieux et difficiles (mais tout aussi importants) du travail quotidien de la police.

Cela dit, les principales préoccupations de Westendorf sont fondées et méritent d’être discutées. Ils peuvent être résumés comme le problème du biais et le problème de la transparence (et leur corollaire, l’explicabilité).

Comme tous les humains, les policiers peuvent avoir des préjugés conscients et inconscients qui peuvent influencer la prise de décision et les résultats des services de police. Les algorithmes de police prédictive doivent souvent être formés sur des ensembles de données qui capturent ces résultats. Cependant, si les algorithmes sont formés sur des ensembles de données historiques qui incluent les résultats d’une prise de décision biaisée, cela peut entraîner une réplication involontaire (et, dans certains cas, amplification) des biais d’origine. Les efforts visant à garantir que les systèmes sont exempts de préjugés peuvent également être sapés par ‘technologie de lavage‘, où les résultats de l’IA sont décrits (et perçus) comme étant uniquement basés sur la science et les mathématiques, et donc intrinsèquement exempts de biais.

Lié à ces préoccupations se pose le problème de la transparence et de l’explicabilité. Certains systèmes d’IA manquent de transparence car leurs algorithmes sont des logiciels propriétaires à source fermée. Mais même les algorithmes open source – en particulier ceux utilisés dans l’apprentissage automatique – peuvent être difficiles à expliquer en raison de leur complexité. Après tout, l’un des principaux avantages de l’IA réside dans sa capacité à analyser de grands ensembles de données et à détecter les relations qui trop subtil pour que l’esprit humain puisse l’identifier. Rendre les modèles plus compréhensibles en les simplifiant peut nécessiter des compromis de sensibilité, et donc aussi en précision. Ensemble, ces préoccupations sont souvent appelées la «boîte noire de l’IA» (les entrées et les sorties sont connues, mais pas ce qui se passe entre les deux).

En bref, le manque de transparence et d’explicabilité rend plus difficile la détection des biais et des résultats discriminatoires. Il s’agit d’une préoccupation éthique et juridique lorsque les systèmes judiciaires exigent que les décisions de recouvrement soient comprises par toutes les parties pour éviter les pratiques discriminatoires. En réalité, des études suggèrent que lorsque les individus font confiance au processus décisionnel, ils sont plus susceptibles de faire confiance aux résultats dans les environnements judiciaires, même si ces résultats sont défavorables. L’explicabilité et la transparence peuvent donc être des considérations importantes lorsque l’on cherche à accroître la responsabilité publique et la confiance dans ces systèmes.

Comme le souligne Westendorf, des mesures peuvent être prises pour atténuer les biais, comme le codage préventif par rapport aux biais prévisibles et l’implication d’analystes humains dans les processus de construction et d’exploitation des systèmes d’IA. Avec ces types de garanties en place (ainsi que des examens et des évaluations de déploiement), l’utilisation de l’IA peut avoir pour résultat établir une objectivité intégrée pour les décisions de maintien de l’ordre réduire la dépendance à l’heuristique et à d’autres pratiques décisionnelles subjectives. Au fil du temps, l’utilisation de l’IA peut contribuer à fausser les résultats du maintien de l’ordre.

Bien qu’il n’y ait pas de solution miracle pour améliorer l’explicabilité, il y a beaucoup de suggestions, en particulier lorsqu’il s’agit de développer des solutions d’IA pour améliorer l’explicabilité de l’IA. Les problèmes de transparence générés par les systèmes propriétaires peuvent également être atténués lorsque les systèmes d’IA appartiennent à la police et sont conçus en interne.

Cependant, le besoin d’explicabilité n’est qu’une considération pour accroître la responsabilité et la confiance du public dans l’utilisation des systèmes d’IA par la police, en particulier en ce qui concerne la police prédictive. Recherche récente constaté que le niveau de confiance des gens envers la police (qui est relativement élevé en Australie) est en corrélation avec leur niveau d’acceptation des changements dans les outils et technologies utilisés par la police. Dans une autre étude, les participants exposés à des applications policières prétendument réussies de la technologie de l’IA étaient plus susceptibles de soutenir une utilisation plus large de ces technologies par les forces de l’ordre que ceux exposés à des utilisations infructueuses ou non exposées d’exemples d’application de l’IA. En fait, les participants exposés à des candidatures prétendument retenues ont même jugé crédible le processus de prise de décision impliqué.

Cela suggère qu’il sera essentiel de mettre l’accent sur une plus grande confiance du public dans les services de police pour maintenir la confiance du public dans l’utilisation de l’IA dans les services de police, quel que soit le degré de transparence et d’explicabilité algorithmique. L’objectif d’une IA transparente et explicable ne doit pas négliger ce contexte plus large.

Leave a Comment

Your email address will not be published.