Passer au contenu

OpenAI bannit un ChatGPT qui imite un candidat à la présidence américaine

OpenAI vient de prendre une première mesure forte pour empêcher ChatGPT de perturber les élections américaines. La start-up a en effet interdit une IA personnalisée conçue pour imiter un des candidats à la présidentielle. Intransigeant, OpenAI a même banni le compte des développeurs.

OpenAI vient de prendre des mesures à l’encontre de Dean.Bot, un ChatGPT personnalisé programmé pour se faire passer pour Dean Phillips, un candidat démocrate à la présidence américaine, rapporte le Washington Post. Le chatbot a été développé par Delphi, une start-up spécialisée dans l’intelligence artificielle, pour le compte de Matt Krisiloff et Jed Somers, deux entrepreneurs de la Silicon Valley qui soutiennent le candidat. Le duo a d’ailleurs lancé un comité d’action politique dédié à Philips, We Deserve Better.

La mesure s’inscrit dans le cadre du plan de bataille d’OpenAI consacré à la protection des élections. Pour éviter que ChatGPT ne serve à propager des fake news à des fins politiques, la start-up a formellement interdit tous les « chatbots qui prétendent être de vraies personnes (par exemple, des candidats) ou de vraies institutions (par exemple, une administration locale) ». L’interdiction du Dean.Bot est la première mesure concrète prise par OpenAI dans le contexte de sa lutte contre les fausses informations.

À lire aussi : ChatGPT utilisé par l’armée ? OpenAI ne l’interdit plus explicitement

Un compte développeur suspendu

Dans la foulée, OpenAI a été jusqu’à suspendre le compte des développeurs à l’origine du Dean.Bot. Contacté par le Washington Post, le groupe confirme avoir banni le compte en vertu de ses règles encadrant l’utilisation de ChatGPT pour une campagne politique :

« Tous ceux qui construisent avec nos outils doivent suivre nos politiques d’utilisation. Nous avons récemment supprimé un compte de développeur qui violait sciemment nos politiques d’utilisation de l’API (NDLR : Application Programming Interface, Interface de Programmation d’Application en français) qui n’autorisent pas la campagne politique ou l’usurpation d’un individu sans consentement ».

Notez que le Dean.Bot ne se faisait pas passer pour Dean Phillips. Pour éviter toute confusion, les développeurs avaient pris soin d’avertir les utilisateurs que le robot qu’il ne s’agissait pas vraiment de l’homme politique en amont des premiers échanges. Cette clause de non-responsabilité précise aussi que l’IA peut fournir des informations erronées ou inexactes.

Le message d’accueil présente plutôt le chatbot comme un « outil éducatif amusant » afin de permettre aux électeurs d’en apprendre davantage sur un candidat et son programme politique. Il semble cependant inévitable que l’outil soit détourné de ses fonctionnalités premières à des fins malveillantes, en dépit des avertissements des développeurs. Malgré les précautions prises, OpenAI s’est donc montré intransigeant. Dans un premier temps, Delphi s’est servi de technologies open source pour assurer le fonctionnement du robot conversationnel. Peu après, le Dean.Bot a été complètement mis hors ligne.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Washington Post


Florian Bayard