Passer au contenu

Samsung insère des informations de traçabilité dans les images modifiées par IA

Pour mieux identifier les images bidouillées ou générées par IA, Samsung intègre les métadonnées C2PA dans ses Galaxy S25. Une première pour ce standard soutenu par les géants de la tech, qui vise à garantir l’authenticité des contenus numériques.

Dans le petit monde de l’édition photo, l’essor de l’intelligence artificielle générative pose certains problèmes qui seront de plus en plus difficiles à résoudre au fur et à mesure que cette technologie s’améliore. Il devient en effet de plus en plus difficile de distinguer le vrai du faux. Les constructeurs travaillent sur des solutions, comme des filigranes et des métadonnées sur les images modifiées par IA.

Nécessité de transparence

Les Galaxy S25 sont les premiers smartphones Android à intégrer les métadonnées C2PA sur les images modifiées avec les outils Galaxy AI. Avant l’édition, l’application prévient qu’un filigrane et des informations seront ajoutés à l’image pour signaler qu’elle contient du contenu généré par IA. Le filigrane est un simple bloc de texte en bas. Les métadonnées sont consultables dans l’app Samsung Galerie en appuyant sur l’icône « cr » (« content credentials »).

Il est aussi possible de consulter ces informations sur le site web Content Credentials mis en place la C2PA (Coalition for Content Provenance and Authenticity), à cette adresse. Malheureusement, le certificat de Samsung n’a pas encore été vérifié, mais ça devrait être corrigé rapidement (espérons).

La coalition C2PA comprend une bonne partie des entreprises impliquées dans l’IA, Samsung évidemment, mais aussi Google, Meta, Microsoft, OpenAI, ainsi que Sony, Intel, Amazon, Adobe, Arm, Leica, Nikon… Il ne manque guère qu’Apple dans le lot. L’organisation développent de nouveaux standards pour la traçabilité des contenus numériques. Ces normes définissent la manière dont des métadonnées chiffrées doivent être intégrées aux fichiers image (informations sur l’appareil utilisé pour créer l’image, outils IA utilisés, émetteur des informations d’authenticité, date d’émission des infos).

On peut retrouver ces informations dans les métadonnées EXIF, qui sont falsifiables assez facilement. Ces données de traçabilité devraient être plus difficiles à tromper, car la C2PA maintient une liste de certificats connus pour empêcher les certificats auto-signés se se faire passer pour des entités légitimes.

Grâce aux standards C2PA, il est possible de vérifier qu’une image provient bien de la source indiquée. Mais ils ne peuvent pas servir à identifier les images générées par IA. Si l’émetteur ne peut être confirmé ou s’il est absent, l’image peut toujours être authentique, mais il faut vérifier d’autres indices comme un filigrane ou des signes de manipulation.

Bref, ce n’est pas la panacée, ce d’autant qu’il existe des outils pour « nettoyer » les images des métadonnées C2PA. Et puis les apps sachant reconnaître ces informations sont peu nombreuses. Malgré tout, il faut bien commencer par quelque chose.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : AndroidAuthority


Mickaël Bazoge