Passer au contenu

OpenAI hésite à proposer son outil de détection anti-triche, pourtant fiable à 99,9 %

OpenAI a développé une technologie qui permet de détecter un texte rédigé avec ChatGPT dans quasiment 100 % des cas. Mais l’entreprise rechigne à la mettre en ligne : les utilisateurs du bot pourraient s’en détourner…

C’est devenu la hantise des professeurs : les devoirs rédigés par IA pullulent depuis l’avènement de ChatGPT, fin 2022 ! Dans les milieux scientifiques pour la publication d’articles, ou encore pour les maisons d’édition, les bots posent également de sérieux problèmes de plagiat. Un œil non exercé peut en effet s’y laisser prendre, et pour les yeux plus aguerris, il reste difficile de déterminer si un texte a été généré par une IA. C’est pourquoi les entreprises du secteur développent des outils de détection, comme c’est le cas chez OpenAI… qui a décidé de ne pas le lancer.

Le dilemme de l’outil anti-triche

Le modèle d’IA de ChatGPT « devine » le mot ou le fragment de mot qui doit venir dans une phrase ; ce « token » constitue un filigrane que l’outil « anti triche » d’OpenAI peut détecter. Il fournit en fait un score indiquant la probabilité que l’ensemble d’un document — ou une partie de celui-ci — a été généré par le bot. Quand une quantité suffisante de texte a été créé par ChatGPT, la détection du watermark peut être efficace à 99,9 %, selon des documents visés par le Wall Street Journal.

S’il existe une réelle demande pour cet outil, OpenAI se fait tirer l’oreille pour le mettre en ligne. C’est que ce détecteur rebuterait près d’un tiers (30 %) des utilisateurs fidèles de ChatGPT, selon un sondage mené par l’entreprise. Pas question pour OpenAI de se passer de ses utilisateurs, qui peuvent devenir des abonnés payants et renflouer les caisses d’une société ayant de gros besoin de financement !

Dans ce même sondage, mené en avril 2023, 69 % des utilisateurs du bot pensent que la technologie anti-triche entraînerait de fausses accusations d’utilisation de l’IA. En dehors de cet aspect très pragmatique, le filigrane pourrait être assez facile à supprimer, par exemple en traduisant le texte dans Google Translate, ou encore en faisant ajouter par ChatGPT des émojis dans le texte, puis en les retirant à la main.

OpenAI craint également que cet outil affecte de manière disproportionnée des utilisateurs dont l’anglais n’est pas la langue maternelle. Un porte-parole confirme que la méthode de filigrane de texte est « prometteuse » qu’elle présente « des risques importants » en cours d’évaluation.

Autre casse-tête : à qui faut-il proposer cet outil ? Il sera inutile si peu de gens s’en servent ; au contraire, s’il est trop largement disponible, il deviendrait possible de déchiffrer la méthode de filigrane… et de tromper la technologie anti-triche !

Au début de l’année dernière, OpenAI proposait un algorithme de détection de texte généré par IA (pour ChatGPT, mais pas uniquement). Il a été retiré quelques mois plus tard en raison de son taux de succès de 26 % seulement. Google aussi propose un tel outil pour les textes créés par Gemini, mais SynthID est toujours en bêta et surtout, il n’est pas vraiment disponible.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : WSJ


Mickaël Bazoge
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *