Passer au contenu

Aux Etats-Unis, bientôt un ChatGPT pro-Trump ?

Des conservateurs voudraient développer, outre-Atlantique, une version de ChatGPT plus à droite et plus « trumpiste ». Et modifier un chat conversationnel existant pour l’orienter politiquement ne serait pas si compliqué : une perspective effrayante qui pourrait conduire à des bulles informatives.

ChatGPT va-t-il passer de « je préfère rester neutre politiquement » à « Mon homme politique préféré est Donald Trump » ? C’est ce à quoi aspirent les conservateurs américains, qui accusent la société OpenAI, à l’origine de ChatGPT, d’avoir conçu un outil qui reflèterait les valeurs libérales de ses programmeurs. Selon eux, l’agent conversationnel pencherait beaucoup trop vers la gauche. Il aurait par exemple accepté d’écrire une ode à Joe Biden, mais refusé de faire de même pour Donald Trump. Un chercheur néozélandais, David Rozado, a, lui aussi, conclu, après une série de tests, que ChatGPT était libéral, progressiste et démocrate, expliquait-il dans un article publié le 24 janvier dernier.

Résultat, certains souhaitent créer leurs propres agents conversationnels qui reflètent davantage leurs valeurs. Parmi eux, Elon Musk, qui a traité ChatGPT de « woke » – un terme utilisé pour critiquer la gauche ou des personnes estampillées comme progressistes, ou militant pour la protection des droits civils. Le patron de Twitter et de Tesla a annoncé vouloir créer sa propre version de chat conversationnel. Andrew Torba, le fondateur de Gab, un site devenu une plaque tournante pour les suprémacistes blancs et les extrémistes, promet de son côté de développer des outils d’IA avec « la capacité de générer du contenu librement sans les contraintes de la propagande libérale ». Dans cette course à l’IA, « nous n’avons pas l’intention de permettre à nos ennemis d’avoir les clés du royaume cette fois-ci », explique-t-il à nos confrères.

La méthode pour faire une version de droite de ChatGPT : le fine-tuning, et 300 dollars

Est-il possible de faire pencher ChatGPT à droite ou à gauche de l’échiquier politique ? Oui, explique le média américain, en glissant des biais pendant la phase d’entraînement du bot. Lorsque les chats conversationnels se nourrissent de milliards de données, il est possible de les orienter en sélectionnant les sources ou en ajustant leurs réponses. Chaque étape de développement va orienter politiquement l’IA dans une direction spécifique, que les développeurs en aient conscience ou non. Pour l’Institut national des normes et de la technologie américain, il n’est de toute façon « pas possible de parvenir à un risque zéro de biais, de préjugés dans un système d’intelligence artificielle ». Et orienter politiquement son chatbot n’est pas si compliqué, précise le professeur David Rozado qui explique avoir transformé ChatGPT en une version pour la droite, contre seulement quelques centaines de dollars.

À lire aussi : Pourquoi les algorithmes sont encore sexistes

Le professeur, qui enseigne à l’Institut Te Pūkenga de Nouvelle-Zélande, a ainsi développé « RightWingGPT », un GPT de droite. Sa méthode : utiliser le « fine-tuning », un processus déjà utilisé pour ajouter une compétence juridique ou technique à un chat conversationnel. Mais au lieu, cette fois, d’y ajouter une fonction juridique ou technique,  le chercheur a pris des tas de réponses de droite à des questions politiques. Il a ensuite demandé au modèle d’adapter ses réponses en conséquence, comme s’il superposait une personnalité au modèle existant.

Ce processus nécessiterait relativement peu de données et peu d’investissement – pas plus de 300 dollars, puisqu’il ne s’agit pas de créer un chatbot de A à Z, mais d’en modifier un existant. Pour son expérience de RightWingGPT, seuls 5 000 points de données ont été utilisés pour transformer un modèle de langage existant en ChatGPT de droite. Cette technique pourrait donc être suivie pour créer des chatbots orientés politiquement par des programmeurs. Pour le professeur, ces bots conversationnels personnalisés constituent un véritable danger puisqu’ils pourraient créer des « bulles d’information sous stéroïdes », soit une cacophonie informationnelle. On pourrait en venir à leur faire confiance en tant que « sources ultimes de vérité », en particulier lorsqu’ils renforcent le point de vue politique d’une personne, explique-t-il. Cette dystopie semble désormais très plausible.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : The New York Times


Stéphanie Bascou