Passer au contenu

Après les données, nos intentions ? Comment l’IA pourrait manipuler nos désirs

Après avoir vendu notre attention, les géants de l’IA chercheraient à vendre nos intentions, avant même que nous les comprenions, selon deux chercheurs de l’université de Cambridge, auteurs d’un article publié fin décembre.

« Vous avez dit que vous vous sentiez surmené, puis-je vous réserver cette place de cinéma dont nous avions parlé ? » Selon Dr Yaqub Chaudhary et Dr Jonnie Penn, deux chercheurs de l’université de Cambridge, les géants de l’intelligence artificielle (IA) vont bientôt vendre nos « intentions », après que les gagnants de la publicité ciblée (Google, Facebook) ont commercialisé notre attention.

Les chercheurs au Leverhulme Centre for the Future of Intelligence (LCFI) de l’université britannique estiment que si les autorités n’y prennent pas garde, il y aura « une ruée vers l’or pour tous ceux qui ciblent, pilotent et vendent les intentions humaines ».

Les deux experts soutiennent, dans un article paru dans la Harvard Data Science Review le 31 décembre dernier, que ChatGPT, Mistral AI, Gemini, Claude et d’autres outils d’intelligence artificielle générative (IA) pourraient bientôt « prévoir et influencer nos décisions à un stade précoce, et vendre ces “intentions” en temps réel aux entreprises qui peuvent répondre aux besoins, avant même que nous ayons pris notre décision ».

À lire aussi : « Internet est devenu une prison de la surveillance sans barreaux ni sortie », l’analyse sans concession de Shoshana Zuboff

Un système d’enchères

Une entreprise ou un groupe cherche à booster la vente de tel produit, à promouvoir tel service, à favoriser tel candidat à l’élection présidentielle ? Il suffirait alors de payer les géants de l’IA, via un système d’enchères similaire à celui qui existe pour nos données personnelles, pour « diriger » la conversation de tel agent conversationnel vers le produit ou le service qui a remporté l’enchère.

Depuis l’avènement de ChatGPT et l’engouement suscité par l’IA générative, ces outils ont en effet accès « à de vastes quantités de données psychologiques et comportementales intimes, collectées via un dialogue informel et conversationnel », notent les chercheurs. « Ce que les gens disent lorsqu’ils conversent, la manière dont ils le disent et le type de déductions qui peuvent en résulter en temps réel sont bien plus intimes que les simples enregistrements d’interactions en ligne », ajoutent-ils.

Et depuis plusieurs mois, des outils d’IA cherchent déjà à « susciter, déduire, collecter, enregistrer, comprendre, prévoir et, en fin de compte, manipuler et commercialiser les projets et les objectifs des êtres humains ».  Les deux auteurs écrivent ainsi que « derrière les investissements considérables », derrière les « discours sensationnels sur l’avenir des LLM », « l’ambition centrale » des géants de l’IA serait d’utiliser l’IA générative pour « déduire les préférences humaines, les intentions, les motivations et d’autres attributs psychologiques et cognitifs ».

À lire aussi : « Les LLM, c’est nul » : le responsable IA de Meta tacle les IA génératives actuelles, et promet bien mieux

Pour preuve, OpenAI, la société à l’origine de ChatGPT, a déclaré, dans un billet de blog du 9 novembre 2023, « être intéressée par des ensembles de données à grande échelle qui reflètent la société humaine (…). Nous recherchons en particulier des données qui expriment l’intention humaine (par exemple, des écrits ou des conversations de longue durée plutôt que des bribes déconnectées), dans toutes les langues, sur tous les sujets et dans tous les formats ».

Une semaine plus tard, c’est Miqdad Jaffer, alors directeur des produits chez Shopify – aujourd’hui chez OpenAI – qui décrit, lors de la conférence des développeurs d’OpenAI, une sorte de :

« continuum dans lequel nous nous trouvons actuellement. Les chatbots interviennent pour obtenir explicitement l’intention de l’utilisateur (…)». Or, « nous commençons par comprendre l’intention de l’utilisateur, puis nous prédisons l’intention de l’utilisateur, puis nous prédisons l’action de l’utilisateur ».

Le PDG de Nvidia a aussi expliqué que les LLM pouvaient être utilisés pour comprendre l’intention et le désir.

Une possible « manipulation sociale à l’échelle industrielle »

Concrètement, les agents conversationnels pourraient ainsi enregistrer sur un temps long « les données comportementales et psychologiques qui signalent l’intention » et qui aboutissent à des décisions. « Si certaines intentions sont fugaces, la classification et le ciblage des intentions qui persistent seront extrêmement rentables pour les annonceurs », écrivent les deux chercheurs. Ces données seraient alors classées, corrélées avec l’historique en ligne, l’âge, le sexe, le vocabulaire, les orientations politiques, et même la manière dont tel utilisateur peut être convaincu et donc manipulé.

De quoi inquiéter les chercheurs, qui estiment qu’il est grand temps de réfléchir à l’impact probable d’un tel marché de l’intention sur nos normes démocratiques, « notamment des élections libres et équitables, une presse libre et une concurrence loyale sur le marché ». Car pour ces derniers, nous sommes bel et bien à l’aube d’une possible « manipulation sociale à échelle industrielle ». 

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Stéphanie Bascou