Les personnes qui se méfient des autres humains font davantage confiance à l’intelligence artificielle

La méfiance d’une personne envers les humains prédit qu’elle aura plus confiance dans la capacité de l’intelligence artificielle à modérer le contenu en ligne, selon une étude récemment publiée. Selon les chercheurs, les résultats ont des implications pratiques pour les concepteurs et les utilisateurs d’outils d’IA sur les réseaux sociaux.

“Nous avons trouvé un modèle systématique d’individus ayant moins confiance dans les autres humains, montrant une plus grande confiance dans la classification de l’IA”, a déclaré S. Shyam Sundar, professeur James P. Jimirro d’effets médiatiques à Penn State. “Sur la base de notre analyse, cela semble être dû au fait que les utilisateurs invoquent l’idée que les machines sont précises, objectives et exemptes de préjugés idéologiques.”

L’étude, publiée dans la revue Nouveaux médias et société ont également constaté que les “utilisateurs expérimentés”, qui sont des utilisateurs expérimentés des technologies de l’information, avaient la tendance inverse. Ils ont moins fait confiance aux modérateurs de l’IA parce qu’ils pensent que les machines n’ont pas la capacité de détecter les nuances du langage humain.

L’étude a révélé que les différences individuelles, telles que la méfiance envers les autres et la consommation d’énergie, prédisent si les utilisateurs invoqueront des caractéristiques positives ou négatives des machines lorsqu’ils seront confrontés à un système basé sur l’IA pour la modération du contenu, ce qui finira par influencer leur confiance dans le système. Les chercheurs suggèrent que la personnalisation des interfaces en fonction des différences individuelles peut modifier positivement l’expérience utilisateur. Le type de modération de contenu dans l’étude consiste à surveiller les publications sur les réseaux sociaux à la recherche de contenus problématiques tels que les discours de haine et les idées suicidaires.

“L’une des raisons pour lesquelles certains peuvent hésiter à faire confiance à la technologie de modération de contenu est que nous sommes habitués à exprimer librement nos opinions en ligne. Nous pensons que la modération de contenu peut nous enlever cela”, a déclaré Maria D. Molina, professeure adjointe d’arts de la communication et sciences à la Michigan State University, et le premier auteur de cet article. “Cette étude peut offrir une solution à ce problème, suggérant que pour les personnes qui ont des stéréotypes négatifs sur l’IA pour la modération de contenu, il est important de renforcer l’implication humaine lors de la prise de décision. En revanche, pour les personnes qui ont des stéréotypes positifs sur les machines, nous pouvons renforcer la force de la machine en mettant en évidence des éléments tels que la précision de l’IA.”

L’étude a également révélé que les utilisateurs ayant une idéologie politique conservatrice étaient plus susceptibles de faire confiance à la modération alimentée par l’IA. Molina et le co-auteur Sundar, qui co-dirige également le laboratoire de recherche sur les effets des médias de Penn State, ont déclaré que cela pourrait provenir d’une méfiance à l’égard des médias grand public et des entreprises de médias sociaux.

Les chercheurs ont recruté 676 participants des États-Unis. Les participants ont été informés qu’ils aidaient à tester un système de modération de contenu en cours de développement. Ils ont reçu des définitions du discours de haine et des idées suicidaires, suivies de l’un des quatre messages différents sur les réseaux sociaux. Les publications ont été signalées comme répondant à ces définitions ou non signalées. Les participants ont également été informés si la décision de signaler la publication avait été prise ou non par une IA, un humain ou une combinaison des deux.

La démonstration a été suivie d’un questionnaire qui demandait aux participants leurs différences individuelles. Les différences comprenaient une tendance à se méfier des autres, l’idéologie politique, l’expérience avec la technologie et la dépendance à l’IA.

“Nous sommes bombardés de nombreux contenus problématiques, de la désinformation au discours de haine”, a déclaré Molina. “Mais en fin de compte, il s’agit de savoir comment nous pouvons aider les utilisateurs à calibrer leur confiance dans l’IA en raison des attributs réels de la technologie, plutôt que d’être influencés par ces différences individuelles.”

Molina et Sundar affirment que leurs résultats pourraient contribuer à façonner l’acceptation future de l’IA. En créant des systèmes personnalisés par l’utilisateur, les concepteurs peuvent atténuer le scepticisme et la méfiance et établir une confiance appropriée dans l’IA.

“Une implication pratique majeure de l’étude est de découvrir des stratégies de communication et de conception pour aider les utilisateurs à calibrer leur confiance dans les systèmes automatisés”, a déclaré Sundar, qui est également directeur du Center for Socially Responsible Artificial Intelligence de Penn State. “Certains groupes de personnes qui ont tendance à avoir une grande confiance dans la technologie de l’IA devraient être informés de ses limites et ceux qui ne croient pas en sa capacité à modérer le contenu devraient être pleinement informés de l’étendue de l’implication humaine dans le processus.”

Origine de l’histoire :

matériaux fourni par État de Penn. Original écrit par Jonathan McVerry. Remarque : Le style et la durée du contenu peuvent être modifiés.

Leave a Comment

Your email address will not be published.