Passer au contenu

OpenAI a lancé un outil de détection d’images générées par Dall-E

Alors que les images générées par IA sont de plus en plus réalistes, la nécessité d’un outil permettant de détecter le vrai du faux devient franchement impérieuse. OpenAI en a justement développé un qui permet de repérer les images créées avec Dall-E.

Il devient de plus en plus difficile de détecter à l’œil nu les images générées par IA. Il est loin le temps où il suffisait de compter le nombre de doigts à une main pour savoir si elle était réelle ou pas… Le hic, c’est que ces modèles IA ne se contentent pas de créer des images de chats mignons : ils peuvent aussi être utilisés pour manipuler l’opinion publique.

La question de la fiabilité

Le sujet est d’autant plus important durant cette année électorale majeure (la moitié du monde est appelé aux urnes !). En février dernier, les opérateurs IA ont pris l’engagement de protéger la démocratie contre les abus de l’intelligence artificielle, en développant des systèmes de filigrane par exemple.

Lire Protéger la démocratie contre les abus de l’IA : un pacte des géants de la tech pour faire bonne figure

OpenAI a lancé de son côté un outil permettant de détecter, avec une fiabilité de 98 %, les images générées par Dall-E 3… si ces images n’ont pas été altérées après leur création, en les recadrant ou en les modifiant. Lorsque les images ont été éditées ou partagées sous la forme d’une capture d’écran, l’outil est « légèrement » moins efficace, admet l’entreprise qui assure toutefois qu’il peut réaliser une identification précise.

OpenAI relève aussi que dans 0,5 % des cas, l’outil étiquette à tort des images « normales » (non générées par IA) comme produites par Dall-E. En ce qui concerne l’identification d’images générées par d’autres modèles, l’outil fait souvent preuve de confusion.

Le créateur de ChatGPT, qui est également à l’origine de Dall-E, espère améliorer la fiabilité de son détecteur de fakes en l’ouvrant à des chercheurs extérieurs. L’outil, qui ne repose pas sur des filigranes, a été testé pendant des mois. Il devra de toute façon démontrer sa fiabilité avec le temps : le détecteur de textes rédigés par IA, proposé par OpenAI peu après le lancement de ChatGPT, se plante trois quarts du temps…

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Wall Street Journal


Mickaël Bazoge
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *