La technologie nous rend-elle plus bête ? Si la question est loin d’être nouvelle, elle se pose aussi pour l’IA générative, ces outils qui permettent de générer du texte, des images ou des vidéos, en réponse à une requête. Alors que cette technologie a été adoptée par des millions d’utilisateurs – OpenAI revendique près de 300 millions d’utilisateurs actifs mensuels de ChatGPT – des scientifiques de l’université de Carnegie Mellon (Pennsylvanie, États-Unis) et de Microsoft ont cherché à comprendre si ces outils affectaient notre esprit critique.
Concrètement, les chercheurs se sont demandés comment les utilisateurs de ChatGPT, Gemini, Le Chat et DeepSeek utilisaient leur jugement critique, cette faculté à interroger ou remettre en question les résultats générés par ces agents conversationnels. Et leur conclusion est sans équivoque : plus les personnes utilisent cette technologie dans leur travail, et moins elles font preuve d’esprit critique, écrivent-ils dans leur étude parue début février.
Pour ces derniers, l’utilisation d’agents conversationnels comme ChatGPT, Le Chat et DeepSeek n’est pas sans conséquences : utilisés à mauvais escient, ils peuvent « entraîner la détérioration de facultés cognitives qui devraient être préservées », laissant notre esprit critique « atrophié et non préparé ».
À lire aussi : L’intelligence artificielle peut-elle nous aider à communiquer avec les animaux ?
Plus un utilisateur pense que l’IA générative génère de bons résultats, et moins il fait appel à son jugement critique
Pour arriver à cette conclusion, les chercheurs ont demandé à 319 personnes majeures (de 18 à 55 ans), issues de différents secteurs professionnels, et provenant de cinq pays – le Royaume-Uni, la Pologne, les États-Unis, le Canada et l’Afrique du Sud – de répondre à plusieurs questions. Toutes ces personnes avaient en commun d’utiliser au moins une fois par semaine l’IA générative dans le cadre de leur travail, que cela soit pour générer du texte, des images ou des recommandations : près de 936 utilisations ont été répertoriées.
Une fois ces dernières identifiées, les chercheurs ont demandé au panel d’utilisateurs à quel point ils avaient confiance dans les résultats générés par les outils d’IA. Ils leur ont aussi cherché à savoir dans quelle mesure ils avaient aussi confiance dans leurs propres capacités à exécuter ces tâches de manière autonome, sans l’IA générative.
Au fil des réponses, un schéma s’est dessiné : plus un utilisateur avait confiance dans les résultats générés par l’IA, et moins il faisait appel à son jugement critique. À l’inverse, moins les personnes interrogées avaient confiance, et plus elles étaient confiantes dans leur propre capacité à évaluer ce que l’lA générait.
Cela était d’autant plus vrai si cela concernait des « tâches à faible enjeu », jugées subalternes, pour lesquelles ces utilisateurs avaient tendance à être moins critiques. Or, ces « premiers renoncements » ne seraient pas sans risque. Les chercheurs mettent en garde contre les possibilités de « dépendance excessive à long terme et de diminution de la capacité à résoudre les problèmes de manière indépendante ».
Dit autrement, plus les outils d’IA deviennent performants et fiables, et plus on aurait tendance, par commodité, gain de temps et peut-être aussi par paresse, à y faire appel, au détriment de nos capacités cognitives que l’on perdrait progressivement.
L’IA nous priverait des moments où notre cerveau « se muscle »
Alors que les géants de l’IA ne cessent de vanter le gain de productivité apporté par l’IA, ou de présenter ces outils comme un moyen de se libérer des tâches rébarbatives, l’IA pourrait en pratique avoir un impact plus important que prévu. Elle pourrait réduire notre capacité à aborder les problèmes les plus complexes, lorsqu’ils se présentent à nous.
« L’une des principales ironies de l’automatisation est qu’en mécanisant les tâches routinières et en laissant le traitement des exceptions à l’utilisateur humain, vous privez ce dernier des occasions habituelles d’exercer son jugement et de renforcer sa musculature cognitive, ce qui le laisse atrophié et mal préparé lorsque les exceptions se présentent », écrivent les chercheurs.
Les auteurs de l’étude ne sont pas pour autant persuadés que l’IA doive être mise de côté – ce qui aurait été surprenant puisque sur les sept chercheurs, six proviennent de Microsoft, un acteur majeur dans la course à l’IA actuelle. Pour ces derniers, leur étude peut aider les développeurs d’IA à concevoir des outils qui mettent l’accent sur les possibilités de « pratiquer la pensée critique », « de stimuler le développement et de prévenir l’atrophie ». En d’autres termes, il faudrait concevoir des systèmes d’IA qui feraient travailler notre cerveau, à l’image d’outils qui nous inciteraient à remettre en question les réponses générées.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.