Quand vous développez un outil, et que celui-ci est inefficace, vous avez deux options : soit vous essayez de l’améliorer. Soit vous le retirez du marché. C’est ce qu’a choisi OpenAI avec son outil de détection de l’IA, « AI Classifier », au grand dam du monde enseignant qui comptait sur ce système pour séparer les copies générées par les robots conversationnels des autres. La start-up à l’origine de ChatGPT a en effet très discrètement ajouté une note sur sa page de blog le 20 juillet dernier pour annoncer la nouvelle de ce retrait. La raison ? Sa trop faible précision. Comprenez : son inefficacité.
« Depuis le 20 juillet 2023, AI Classifier n’est plus disponible en raison de son faible taux de précision. Nous nous efforçons d’intégrer les commentaires et recherchons actuellement des techniques (de détection) plus efficaces pour le texte, et nous nous sommes engagés à développer et à déployer des mécanismes permettant aux utilisateurs de comprendre si le contenu audio ou visuel est généré par l’IA », écrit OpenAI. D’autres outils pourraient donc être mis en place, mais aucune indication n’est donnée à ce sujet.
Pour les textes en anglais : un cas sur quatre seulement correctement détecté
« AI Classifier » n’aura donc existé que six mois. Et dès janvier dernier, mois de son lancement, OpenAI avait déjà prévenu. Son système de détection n’est « pas totalement fiable ». La start-up expliquait alors que son outil pouvait bien faire la distinction entre un texte écrit par un humain et un texte généré par une IA. Mais elle précisait aussi, s’appuyant sur une série de tests réalisés sur des textes en anglais, que son outil manquait de précision. AI Classifier avait correctement identifié comme étant « probablement écrits par l’IA » 26 % des textes écrits par l’IA – soit un sur quatre seulement. Et dans près d’un cas sur 10, l’outil avait classé un texte pourtant écrit par un rédacteur humain comme étant généré par l’IA – ce qu’on appelle des faux positifs.
Depuis le début du lancement de ChatGPT en novembre dernier, la demande de mise à disposition d’un tel système est pourtant forte, notamment dans l’éducation et l’art. En l’absence d’un tel outil, ChatGPT et les autres outils d’IA générative ont tout simplement été interdits dans de nombreuses universités, ou lors de concours artistiques. Mais il n’est pas seulement question de tricherie ou de protection des artistes : cette technologie présente aussi des risques de manipulation de l’opinion, l’IA pouvant être utilisée pour créer des deep fakes ou des photographies paraissant plus vraies que nature, floutant la frontière entre le réel et la fiction.
La mention « générée par l’IA » pas obligatoire
Des associations et de nombreuses personnalités ne cessent d’ailleurs de sonner la sonnette d’alarme sur ce point, notamment en vue des prochaines élections. Car non seulement il n’existe pas d’outils de détection, pour le moment. Mais la mention « générée par l’IA », qui permettrait de faire la part des choses, n’est pas obligatoire. Aux États-Unis, des soutiens à certains candidats à la Présidentielle américaine n’ont pas hésité à recourir à cette technologie accessible à moindre coût pour faire passer leurs idées. Il y a plusieurs semaines, une vidéo du camp républicain décrivant un monde apocalyptique en cas de réélection de Joe Biden, générée par l’IA, ne comportait pas toujours la mention « générée par l’IA ».
À lire aussi : Face à ChatGPT, ces professeurs ont pris une décision radicale
Et le fait que même l’entreprise à l’origine de ChatGPT ne parvienne pas à mettre en place un système de détection des contenus générés par son propre outil n’est pas très rassurant. D’autant qu’il n’existe pour l’instant aucune législation contraignante en la matière. Seul le futur règlement européen sur l’IA inclut une disposition qui rendrait la mention « Généré par l’IA » obligatoire, sans pour autant préciser comment cela est possible techniquement. Et il semblerait qu’un outil fiable, permettant de distinguer le travail de l’homme de celui de l’IA, n’existe pas encore.
Mais les choses pourraient bientôt changer. Aux États-Unis, sept entreprises du secteur dont OpenAI, Microsoft, Google, Meta ou encore Amazon, se sont engagées (volontairement) à mettre en place un watermark sur les contenus texte, audio et vidéo générés par l’IA, selon un communiqué de la Maison Blanche. L’objectif : « réduire les dangers de fraude et de tromperie », précisent les auteurs du texte. Cette déclaration d’intention sera-t-elle suivie d’effet ?
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : Blog d'OpenAI