Il devient de plus en plus difficile de détecter à l’œil nu les images générées par IA. Il est loin le temps où il suffisait de compter le nombre de doigts à une main pour savoir si elle était réelle ou pas… Le hic, c’est que ces modèles IA ne se contentent pas de créer des images de chats mignons : ils peuvent aussi être utilisés pour manipuler l’opinion publique.
La question de la fiabilité
Le sujet est d’autant plus important durant cette année électorale majeure (la moitié du monde est appelé aux urnes !). En février dernier, les opérateurs IA ont pris l’engagement de protéger la démocratie contre les abus de l’intelligence artificielle, en développant des systèmes de filigrane par exemple.
OpenAI a lancé de son côté un outil permettant de détecter, avec une fiabilité de 98 %, les images générées par Dall-E 3… si ces images n’ont pas été altérées après leur création, en les recadrant ou en les modifiant. Lorsque les images ont été éditées ou partagées sous la forme d’une capture d’écran, l’outil est « légèrement » moins efficace, admet l’entreprise qui assure toutefois qu’il peut réaliser une identification précise.
OpenAI relève aussi que dans 0,5 % des cas, l’outil étiquette à tort des images « normales » (non générées par IA) comme produites par Dall-E. En ce qui concerne l’identification d’images générées par d’autres modèles, l’outil fait souvent preuve de confusion.
Le créateur de ChatGPT, qui est également à l’origine de Dall-E, espère améliorer la fiabilité de son détecteur de fakes en l’ouvrant à des chercheurs extérieurs. L’outil, qui ne repose pas sur des filigranes, a été testé pendant des mois. Il devra de toute façon démontrer sa fiabilité avec le temps : le détecteur de textes rédigés par IA, proposé par OpenAI peu après le lancement de ChatGPT, se plante trois quarts du temps…
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : Wall Street Journal