Passer au contenu

Un watermark pour repérer les contenus générés par l’intelligence artificielle

En attendant la mise en place d’une législation sur l’intelligence artificielle, sept des plus grandes entreprises du secteur ont trouvé un terrain d’entente sur plusieurs garde-fous lors d’une réunion à la Maison Blanche.

L’avènement à vitesse grand V de l’intelligence artificielle générative bouscule tout aussi rapidement les législateurs partout dans le monde. L’Union européenne n’a pas traîné avec l’AI Act, un règlement autour de l’utilisation de l’IA dont les dispositions mettront du temps avant d’être applicables. Dans l’intervalle, l’UE et les États-Unis veulent s’entendre autour d’un « Pacte sur l’intelligence artificielle » : il s’agit d’un code de bonne conduite que les entreprises du secteur devront s’engager à respecter, en attendant des lois en bonne et due forme.

Lire aussi Code de conduite, pacte, agence internationale… Comment les initiatives visant à réguler l’IA se multiplient

De la bonne volonté, c’est aussi ce qui transparait suite à la réunion au sommet entre l’administration Biden et sept des entreprises américaines les plus impliquées dans l’IA générative (dont OpenAI, Microsoft, Google, Meta ou encore Amazon). Le président américain a obtenu de ces sociétés des engagements volontaires pour limiter les risques que posent cette technologie émergente.

La bonne volonté des entreprises

La principale disposition est la mise au point d’un watermark sur les contenus texte, audio et vidéogénérés par l’intelligence artificielle comme ChatGPT ou Midjourney. Un filigrane qui permettra aux lecteurs, auditeurs et spectateurs de ne pas prendre des vessies pour des lanternes. Il s’agit en effet de freiner la désinformation issue des contenus créés par l’IA. On ignore encore à quoi ressemblera ce filigrane, mais il sera intégré dans le contenu afin qu’il soit possible d’en retracer l’origine.

Il y a urgence à agir. Les premiers soubresauts de la campagne pour l’élection présidentielle américaine ont montré que l’intelligence artificielle générative allait servir pour tromper ou manipuler l’opinion, en particulier du côté républicain.

Lire aussi Quand l’IA permet de multiplier les deepfakes politiques et L’adversaire de Trump à la primaire républicaine utilise l’IA pour simuler la voix de l’ex-président

Pour la Maison Blanche, ce watermark permettra « à la créativité de l’IA de s’épanouir tout en réduisant les dangers de fraude et de tromperie ». OpenAI assure de sa volonté de « développer des mécanismes robustes, incluant la provenance et/ou des systèmes de filigrane pour les contenus audio et visuel ». Le créateur de ChatGPT promet des outils et des API pour déterminer si du contenu a été créé avec sa technologie.

Google indique de son côté qu’en plus du watermark, il compte aussi insérer des métadonnées et « d’autres techniques innovantes pour promouvoir une information dignes de confiance ». Parmi les autres engagements pris durant la réunion, il y a l’investissement accru envers la cybersécurité et le partage d’informations avec le reste de l’industrie pour aider à réduire les risques posés par l’IA.

Toutes ces entreprises sont d’accord sur un point : aucune d’entre elles ne peut mettre au point, seule, les règles qui doivent régir l’intelligence artificielle. Il s’agira donc d’un travail en commun avec les législateurs.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Financial Times


Mickaël Bazoge
Votre opinion
  1. Watermark : fatigants vos termes anglais . filigranes numérique , tatouage numérique .Un peu de personnalité et moins de flemme!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *