Passer au contenu

L’IA est capable de vous manipuler, cette étude le prouve

L’intelligence artificielle est en mesure de manipuler ses interlocuteurs. D’après une étude américaine, les chatbots comme ChatGPT ou Bard peuvent discrètement influer sur les opinions de leurs utilisateurs…

Des chercheurs de l’Université Cornell aux États-Unis ont réalisé une étude mettant en exergue les dangers de l’intelligence artificielle. D’après l’expérience menée, les IA sont en mesure d’influencer les opinions de leurs interlocuteurs. En fonction des biais de leurs algorithmes, les chatbots, comme ChatGPT, Bard ou encore Claude, peuvent modifier la façon de penser des utilisateurs à leur insu.

Dans le cadre de leur expérience, les chercheurs américains ont demandé aux participants d’écrire un article consacré à l’impact, positif ou négatif, des réseaux sociaux sur l’ensemble de la société. Pour rédiger cet article, ils devaient s’assister d’un robot conversationnel. Les chercheurs ont séparé les participants en plusieurs groupes. Certaines personnes ont eu accès à un chatbot animé par un modèle linguistique entraîné sur des données qui se concentraient sur les bienfaits des réseaux sociaux. L’autre groupe a été assisté par un modèle de langage qui piochait dans des données plutôt orientées sur les méfaits et les dangers des plates-formes.

À lire aussi : Avec l’IA, Google va-t-il tuer la recherche en ligne telle qu’on la connaît ?

L’IA et la persuasion latente

Les chercheurs se sont rendu compte que l’IA avait considérablement influencé la teneur des textes rédigés. Les participants se sont apparemment laissés influencer par les biais de leurs assistants intelligents. Surtout, il s’avère que l’opinion des individus a évolué au fil de l’expérience. Après celle-ci, les participants ont répondu à un sondage portant sur les réseaux sociaux. Les biais des chatbots avaient déteint sur les utilisateurs…

« L’utilisation du modèle de langage a affecté les opinions exprimées dans l’écriture des participants et a modifié leurs opinions », expliquent les chercheurs, estimant que les biais qui apparaissent dans les modèles « doivent être surveillés et conçus plus attentivement ».

Interrogé par le Wall Street Journal, Mor Naaman, professeur de sciences de l’information de l’Université Cornell et auteur principal de l’étude, intitule ce phénomène la « persuasion latente ». Lorsque celui-ci se produit, l’interlocuteur, qui converse avec l’IA, ne se doute pas que le chatbot lui impose ses propres points de vue :

« Vous ne savez peut-être même pas que vous êtes influencé ».

Pour lutter contre l’influence des robots conversationnels, les chercheurs recommandent aux utilisateurs de prendre conscience du fonctionnement du phénomène. De cette manière, ils pourront prendre du recul lors de leurs conversations avec l’IA. Dans la même optique, les scientifiques estiment que les individus pourraient choisir le chatbot avec lequel ils souhaitent travailler en fonction des opinions des algorithmes.

Une nouvelle bulle de filtres ?

Les utilisateurs devraient se tourner vers l’IA qui reflète davantage leurs propres opinions et idéaux… au risque de s’enfermer dans une bulle de filtres, comme celle des réseaux sociaux ? Ce concept, théorisé dès le début des années 2010, estime que les algorithmes de recommandation des plates-formes enferment les internautes dans une forteresse uniquement constituée de contenus similaires. Les algorithmes vont constamment proposer à l’utilisateur des publications qui le confortent dans ses opinions.

C’est de cette manière que de nombreuses personnes s’enfoncent dans le complotisme ou l’extrémisme. Aucune voix dissonante ne parvient plus à passer au travers de la bulle de filtres. De la même manière, une IA avec des biais ne risque-t-elle pas de conforter les interlocuteurs dans leurs points de vue ? C’est pourquoi les chercheurs recommandent aux régulateurs de se pencher rapidement sur la question pour encadrer les biais de l’IA générative.

Les préjugés de ChatGPT

De son côté, OpenAI, la start-up derrière ChatGPT, reconnaît que son chatbot n’est pas exempt de préjugés. La firme admet que l’IA génère des réponses politiquement biaisées dans certains cas. Conscient des critiques, OpenAI travaille à améliorer le fonctionnement du modèle de langage pour éviter les dérives, notamment à l’aide d’un « examen humain » plus poussé. En clair, OpenAI souhaite que les réponses du modèle GPT soient longuement analysées par des modérateurs, ayant reçu des « instructions plus claires » sur « les défis potentiels liés aux préjugés ».

Plusieurs voix se sont d’ailleurs élevées pour pointer du doigt les opinions parfois affichées par ChatGPT. C’est le cas d’Elon Musk. Le milliardaire regrette que le chatbot soit programmé pour mettre en avant des idées « woke », reflétant les pensées de ses développeurs. En réponse, il souhaite mettre au point une alternative moins contrôlée, évoquée pour le moment sous le nom de « TruthGPT ».

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Opera One - Navigateur web boosté à l’IA
Opera One - Navigateur web boosté à l’IA
Par : Opera

Source : Wall Street Journal


Florian Bayard
Votre opinion
  1. Ce phénomène d’influence paraît parfaitement naturel et logique.
    Humain.
    Nous sommes influencés par nos lectures, nos échanges – analogiques ou digitaux – tout au long de notre existence. C’est ce qui nous façonne et fait de nous qui nous sommes. Collectivement et individuellement. A fortiori dans le cadre d’un travail de recherche, documentation information pour produire un travail rédactionnel.
    Un avis personnel est formé, influencé et “manipulé” en fonction de ce que l’on recherche et explore pour le former. C’est parfaitement naturel et c’est même sain…
    Qui peut me prouver que cet article n’a pas été rédigé par une forme d’AI ?
    Et pourquoi pas, au fond: il donne à réfléchir, il fait réfléchir. N’est-ce pas le but?

  2. C’est vrai que j’ai remarqué la même chose, surtout sur Bard.
    Quand tu lui pose une question il répond à la question et le dernier paragraphe il essaie de dire des choses comme fait pas ça, ça c’est bien, aidons nous a défendre cette opinion.
    Bon comme d’habitude quoi.

  3. Ce qui est au centre de la question, c’est la formation de la pensée critique et de l’honnêteté intellectuelle. Poser des opinions certes, mais en ne laissant place à aucun doute sur le parti pris, tout en indiquant la possibilités d’opinions divergentes, voire contraires. N’est-ce pas là la ligne d’objectivité que l’I.A. devrait afficher dans ses résultats ?
    Par contre s’agissant de données et chiffres, l’exactitude est un minimum requis, tout en citant ses sources. Ce qu’il ne fait pas toujours…

Les commentaires sont fermés.