« Ceci est généré par une intelligence artificielle » ou « cette voix est générée par l’IA » : Sur Facebook, YouTube et TikTok, on pourrait bientôt voir ce type de mentions en cas de présence de contenus réalisés par l’intelligence artificielle (IA). C’est ce que souhaite la Commission européenne qui a demandé aux 44 plateformes technologiques signataires du code européen de bonne conduite visant à lutter contre la désinformation de repérer et d’étiqueter immédiatement tous les contenus et images générés par l’IA. Cette demande a été formulée lundi 5 juin par l’exécutif européen, qui craint que ces outils n’entraînent encore plus de désinformations sur les plateformes. Quelques semaines plus tôt, des images générées par l’IA d’une fausse arrestation de Donald Trump ou du pape François en doudoune avaient fait le tour des réseaux sociaux.
« Les chatbots avancés comme ChatGPT sont capables de créer des contenus et des images complexes, apparemment bien étayés, en quelques secondes », a rappelé le lundi 5 juin Vera Jourova, vice-présidente de la Commission européenne, dont le discours a été rediffusé sur le compte Twitter de la Commission européenne.
"When it comes to AI production, I don't see any right for the machines to have freedom of speech.
Signatories of the EU Code of Practice against disinformation should put in place technology to recognise AI content and clearly label it to users."
— Vice-President @VeraJourova pic.twitter.com/yLVp79bqEH
— European Commission (@EU_Commission) June 5, 2023
Des étiquetages immédiats et des garde-fous pour éviter la désinformation
« Les générateurs d’images peuvent créer des images en apparence authentiques d’événements qui n’ont jamais eu lieu. (…) Les logiciels de génération de voix peuvent imiter la voix d’une personne sur la base d’un échantillon de quelques secondes », a rappelé la Commissaire européenne. Les plateformes doivent donc aider les utilisateurs à mieux identifier les contenus générés par l’IA, via un étiquetage qui « doit être fait maintenant, immédiatement », a-t-elle ajouté. Celle qui est responsable des Valeurs et de la Transparence a ajouté que tous ceux qui intégraient l’IA générative dans leurs services, comme Bing Chat pour Microsoft et Bard pour Google, devraient mettre en place des garde-fous pour que des derniers « ne puissent pas être utilisés par des acteurs malveillants pour générer de la désinformation », a-t-elle ajouté.
Ces demandes pourraient cependant rester lettre morte. Car cette obligation de mention « fait par l’IA », qui s’ajoute au code de conduite existant, n’est pour l’instant pas obligatoire, ce qui est le cas de l’ensemble de ce corpus de règles. La mesure ne deviendra contraignante qu’à compter du 25 août prochain, pour les très grandes plateformes en ligne et les moteurs de recherche (les VLOPs) comme Meta, Twitter et TikTok en application du « Digital Services Act » ou DSA. Dans le même temps, les Eurodéputés souhaitent inscrire une telle règle dans l’AI Act, le Règlement européen sur l’IA, un texte qui ne rentrera pas en vigueur avant deux ans et demi, au mieux.
Outre son aspect facultatif, il n’est pas certain que les plateformes disposent techniquement d’outils qui permettent de distinguer les contenus faits par l’IA des autres. Les dispositifs existants seraient loin d’être à 100 % efficaces. La Commissaire européenne explique toutefois avoir été rassurée par le PDG de Google, Sundar Pichai. « Je lui ai demandé : “Avez-vous développé une technologie suffisamment rapide pour détecter la production de l’IA et l’étiqueter de manière à ce que les gens puissent voir qu’ils ne lisent pas le texte produit par de vraies personnes ?” Il m’a répondu : “Oui, mais nous sommes encore en train de développer, d’améliorer un peu plus ces technologies ».
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Ce n’est que justice. Ça permet aux utilisateurs de rapidement repérer les articles de piètre qualité, de la même manière qu’en lisant le nom de l’auteur. 😉 *clin d’oeil*