Passer au contenu

Sur Facebook et Instagram, Meta promet d’identifier les contenus générés par l’IA

Le groupe de Mark Zuckerberg annonce travailler sur un futur étiquetage des contenus générés par l’IA. Un label indiquera « dans les prochains mois » aux utilisateurs si telle vidéo ou telle image a été générée par un outil d’IA. L’entreprise à la tête d’Instagram, de Facebook et de Threads reconnaît que la technologie n’est pour l’instant pas tout à fait au point. Elle demandera aux utilisateurs qui publient des contenus modifiés par l’IA de le mentionner, sous peine de sanctions.

« Imaginé avec l’IA » : sur les réseaux sociaux de Meta, les images générées par un outil d’intelligence artificielle seront étiquetées comme telles, promet Nick Clegg, responsable des affaires internationales de Meta, dans un message de blog de l’entreprise du 6 février. Le responsable assure que cette mention sera faite « dans les prochains mois » sur Facebook, Instagram et Threads, à chaque fois que seront « détectés des signaux conformes aux normes de l’industrie » montrant qu’un contenu a été généré par l’IA.

Le groupe de Mark Zuckerberg applique déjà le label « fait par l’IA », si l’image est générée par son outil maison, « Imagine », lancé en décembre aux États-Unis. Mais il faudrait aussi « pouvoir le faire avec des contenus créés avec des outils d’autres entreprises » comme ceux de « Google, OpenAI, Microsoft, Adobe, Midjourney ou encore Shutterstock », ajoute Nick Clegg. Il s’agit pour l’instant d’un objectif, pas encore atteint : « la technologie n’est pas encore tout à fait au point », admet-il.

Meta cherche à rendre difficile la suppression des watermarkers

Concrètement, Meta précise qu’il placera « des marqueurs visibles sur les images, ainsi que des watermarkers invisibles et des métadonnées intégrées dans les fichiers d’image ». Car si Midjourney et Stable Diffusion n’utilisent pas encore ces systèmes de tatouages invisibles, ces derniers peuvent aussi être supprimés a posteriori.

L’entreprise explique ainsi « chercher des moyens de rendre plus difficile la suppression ou la modification des watermarkers invisibles ». Sans donner un calendrier précis, le groupe de Menlo Park ajoute : « Nous sommes en train de construire cette capacité dès maintenant, et dans les mois à venir, nous commencerons à appliquer des étiquettes dans toutes les langues prises en charge par chaque application ».

Pour les vidéos et audios générés par l’IA : l’utilisateur devra lui-même le mentionner

L’entreprise indique aussi qu’elle demandera aux utilisateurs de jouer le jeu de la transparence. Ces derniers devront clairement déclarer si les vidéos ou les audios qu’ils publient ont été générés par l’IA, sous peine de « sanctions » – qui ne sont pas précisées. En cas de contenu comportant « un risque particulièrement élevé de tromper le public sur un sujet important, nous pourrons ajouter un étiquetage plus visible, le cas échéant, afin que les internautes disposent de plus d’informations et d’un meilleur contexte », est-il précisé.

Cette annonce intervient alors que les cas d’utilisation d’IA pour créer de fausses images ou de faux appels téléphoniques, visant la chanteuse Taylor Swift ou des hommes politiques, ont défrayé la chronique outre Atlantique. Les experts s’inquiètent de ces cas de désinformation et de tentatives de manipulation de l’opinion, alors qu’auront lieu cette année la présidentielle aux États-Unis et les élections européennes sur le Vieux continent. Pour Nick Clegg, la mise en place de ces labels pourrait minimiser la profusion de ces faux contenus générés par l’IA « dans les limites de ce que la technologie permet actuellement ». Mais cela « n’éliminera pas » totalement leur production, admet-il.

Meta est loin d’être la première société à annoncer différentes mesures pour lutter contre les contenus générés par l’IA, et destinés à désinformer ou tromper. La publication du communiqué de Meta tombe 24 heures après la publication d’un avis du conseil de surveillance de l’entreprise. Ce conseil des Sages avait été saisi en octobre dernier après la publication d’une vidéo de Joe Biden modifiée, le faisant passer pour un pédophile. Le Conseil demande au groupe d’agir pour que les utilisateurs puissent clairement identifier ce qui a été généré ou modifié par l’IA, de ce qui ne l’est pas.

À lire aussi : L’IA va pourrir le débat politique, et nous n’avons aucun outil pour nous en prémunir

En attendant « les normes communes »…

Depuis des mois, l’appel à mettre en place un étiquetage « fait par l’IA » se fait de plus en plus pressant. En juin dernier, la Commission européenne avait déjà demandé aux 44 plateformes technologiques signataires du code européen de bonne conduite de repérer et d’étiqueter immédiatement tous les contenus et images générés par l’IA. Outre Atlantique, la Maison blanche avait formulé une requête similaire un mois plus tard, une demande qui avait bien été reçue par sept entreprises américaines du secteur, dont Meta. Toutes ont déjà promis, officiellement ou officieusement, d’œuvrer à la mise en place de filigranes pour les contenus générés par l’IA. Depuis, la majorité des entreprises de l’IA ont repris ces objectifs dans leurs communiqués, sans qu’aucun outil efficace ne soit adopté massivement par le secteur.

À lire aussi : ChatGPT : OpenAI débranche son outil qui détectait le texte généré par l’IA

OpenAI, la société à l’origine de ChatGPT et de Dall-E (en janvier), TikTok (en septembre dernier) et YouTube (en novembre dernier) ont déclaré avoir mis en place certains outils, notamment en demandant aux utilisateurs de mentionner l’utilisation de l’IA dans leurs contenus. En octobre dernier, Adobe a également proposé un label commun mis au point avec plusieurs autres entreprises dans le cadre de la Coalition for Content Provenance and Authenticity. Cette initiative, dont font partie Microsoft, Nikon, Arm, Intel et d’autres, vise à intégrer un symbole CR, pour CRedentials, au contenu, à côté des métadonnées.

À lire aussi : Adobe veut marquer les contenus générés par IA avec une « icône de transparence »

Si un utilisateur clique sur la mention CR, il saura clairement d’où vient une image et si une IA a été impliquée dans son processus de création. Sans évoquer ce label CR, Meta, avec son objectif d’étiquetage des contenus générés par l’IA, estime pour sa part qu’il est temps que l’ensemble du secteur « travaille ensemble » pour « développer les normes communes dont nous avons besoin ».

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Article de blog de Meta du 6 février 2024


Stéphanie Bascou
Votre opinion
  1. Si votre contenu est illégal, merci de le declarer sur cette page.
    C’est sur que ca va bien marcher ce truc.

Les commentaires sont fermés.