Passer au contenu

Le plan de bataille d’OpenAI (ChatGPT) pour lutter contre les fake news pendant les élections

Alors qu’en 2024 auront lieu les premières grandes élections à l’ère de l’intelligence artificielle, OpenAI a publié un article de blog expliquant comment la société compte s’assurer que ses outils d’IA (ChatGPT, Dall-E) ne soient pas utilisés à mauvais escient pendant un processus électoral.

Créer des vidéos ou des images destinées à tromper les électeurs, développer des deepfakes en masse pour mettre hors circuit tel candidat, avoir des électeurs incapables de faire la part du vrai et du faux… À quoi ressembleront les élections à l’ère de l’intelligence artificielle ? Si nous avions déjà eu quelques cas de politiques cherchant à dénigrer leurs adversaires grâce à l’IA, en France comme aux États-Unis, les utilisations problématiques de ces outils devraient se multiplier. Notamment parce que de très nombreuses élections auront lieu cette année. Outre la Présidentielle américaine et les élections des Eurodéputés, des scrutins cruciaux sont prévus au Royaume-Uni, en Inde, en Afrique du Sud, en Indonésie et au Mexique.

Ces scrutins cruciaux seront aussi spéciaux, car désormais, les outils d’IA générative comme ChatGPT, Bard ou Dall-E sont à la portée de tous les électeurs, et de tous les hommes et femmes politiques qui souhaiteraient y recourir pour défendre leur cause – et discréditer leurs concurrents. De quoi devenir le terrain de jeu d’une expérimentation grandeur nature qui pourrait affaiblir la démocratie. Et si cela a de quoi inquiéter de nombreux chercheurs, OpenAI a pris les devants en publiant, lundi 15 janvier, un billet de blog à ce sujet.

À lire aussi : L’IA va pourrir le débat politique, et nous n’avons aucun outil pour nous en prémunir

L’entreprise à l’origine de ChatGPT a déclaré qu’elle comptait prévenir les abus, œuvrer « à la transparence des contenus générés par l’IA et à l’amélioration de l’accès à des informations précises sur le vote ». En matière de désinformation, les entreprises développant des outils d’IA doivent faire face à deux principaux problèmes : comment faire pour que les systèmes ne génèrent pas, dans leurs réponses, de fausses informations ? En décembre dernier, le média américain Wired montrait, recherche à l’appui, que Copilot, le chatbot IA de Microsoft, ne répondait aux questions sur les élections qu’en relayant « des théories du complot, de faux scandales et des mensonges ». En conséquence, comment éviter que l’IA ne soit utilisée « d’une manière qui pourrait nuire au processus démocratique » ?

Générer des images de candidats est interdit

OpenAI souligne d’abord qu’elle a bloqué certaines demandes d’utilisateurs. Ainsi, « nous n’autorisons pas les concepteurs à créer des chatbots qui prétendent être de vraies personnes (par exemple, des candidats) ou de vraies institutions (par exemple, une administration locale) ». De même, « Dall-E dispose de garde-fous pour refuser les demandes de génération d’images de personnes réelles, y compris de candidats ». Elle n’autorise pas non plus les internautes à utiliser ses systèmes pour convaincre les électeurs de ne pas participer au processus démocratique.

L’entreprise se présente comme étant particulièrement prudente, reconnaissant qu’elle cherche « encore à comprendre l’efficacité de nos outils en matière de persuasion personnalisée. Tant que nous n’en savons pas plus, nous n’autorisons pas les gens à créer des applications pour les campagnes politiques et le lobbying ».

À lire aussi : Bientôt des mentions « contenu généré par l’IA » sur les réseaux sociaux ?

Des filigranes pour les vidéos et images générées par Dall-E

OpenAI explique aussi s’appuyer « sur des programmes d’information vérifiée et d’authenticité des images pour garantir aux utilisateurs l’accès à des informations de haute qualité tout au long des élections ». Pour ce faire, la société indique, pour les images et vidéos, qu’elle est sur le point d’expérimenter un nouvel outil qui permettrait de détecter quelles photos ont été réalisées avec Dall-E, grâce à un « classificateur de provenance ». Cet outil avait déjà été annoncé en octobre dernier.

L’entreprise de Sam Altman explique également qu’elle mettra aussi en œuvre un système défini par une coalition d’entreprises du secteur, la « Coalition pour la provenance et l’authenticité des contenus ». Il s’agirait d’ajouter automatiquement une marque ou une icône à une image générée par Dall-E 3. Avec un tel marquage, il serait plus facile de distinguer les images générées par l’IA des authentiques. Côté texte et contenus informationnels, OpenAI souligne qu’elle intégrera à ChatGPT des informations en temps réel dans le monde entier, « y compris l’attribution et les liens », a ajouté l’entreprise.

Pour avoir accès à de l’information en continu – qui permet de générer des réponses qui seraient à jour des derniers événements ou résultats d’une élection – OpenAI s’appuierait sur des accords conclus avec des médias américains et allemands (comme le groupe Axel Springer). D’autres seraient en cours de négociation, avait expliqué l’entreprise quelques jours après l’annonce des poursuites du New York Times. Le quotidien américain l’accuse de piller ses articles pour former ses LLM, sans autorisation. Dernier élément précisé dans son billet de blog, OpenAI indique qu’elle redirigera les utilisateurs de ChatGPT vers CanIVote.org, qui fournit des informations de référence sur le vote et les élections aux États-Unis.

À lire aussi : Comment OpenAI (ChatGPT) se défend d’avoir pillé le New York Times

Pour quelle efficacité ?

Tous ces éléments seront-ils efficaces ? Si beaucoup en doutent, OpenAI n’est pas la seule à avoir adopté une telle stratégie. Google a assuré en décembre dernier qu’il limiterait les requêtes électorales faites à son chatbot d’IA, Bard. Meta, la maison mère de Facebook, Instagram et WhatsApp, avait interdit, quelques mois plus tôt, l’utilisation de ses outils publicitaires d’IA pour des campagnes électorales.

Le fait de travailler sur des filigranes numériques, permettant de détecter si tel texte ou image a été générée par l’IA, est aussi dans les tuyaux de Google et de Meta. Côté DeepMind a été mis en avant SynthID, qui permet d’apposer un filigrane numérique sur les images et les sons générés par l’IA, rapportait Google le mois dernier. Meta a aussi opté pour ce marquage invisible pour toute image généré par son IA. Ces éléments pourront évoluer en fonction de l’évolution des utilisations et de la technologie. 

A lire aussi : ChatGPT utilisé par l’armée ? OpenAI ne l’interdit plus explicitement

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Article de blog d'OpenAI


Stéphanie Bascou