Il y a quelques jours, la société française Linagora a mis en ligne Lucie, une intelligence artificielle générative conçue avec le Centre National de la Recherche Scientifique. Cette IA, qui se présente comme une alternative aux IA comme ChatGPT ou Google Gemini, est destinée à faire son entrée dans le « monde de l’éducation » dans le courant de l’année.
Présentée comme le tout premier modèle d’IA 100 % français et open source qui soit « aligné sur les valeurs européennes », elle est financée par l’État par le biais du plan d’investissement France 2030. Ce plan d’investissement public est destiné à renforcer la compétitivité de la France sur le terrain de l’IA.
Dans le cadre de cette première phase de test, les internautes étaient invités à discuter avec Lucie, de la même manière qu’ils échangent avec ChatGPT ou un autre chatbot. En l’espace de quelques jours, les retours d’expérience ont afflué sur les réseaux sociaux. Et ils ne sont pas bons du tout…
À lire aussi : Trump supprime les garde-fous sur l’IA – pourquoi on doit s’en inquiéter
Œufs de vaches et Adolf Hitler
Lucie a rapidement fait l’objet des moqueries des internautes. Les personnes ayant interagi avec l’IA se sont rendu compte qu’elle cumulait les erreurs et les absurdités. Par exemple, Lucie s’est parfois montrée incapable de faire des calculs basiques, ou d’expliciter son résultat. Sur les réseaux sociaux, les exemples ne manquent pas. Dans les cas mis en avant par les testeurs, l’intelligence artificielle n’arrête pas de propager de fausses informations ou de faire des erreurs historiques et factuelles.
Les americains n’ont qu’à bien se tenir avec leur projet stargate. Nous on a Lucie, l’IA qui reflète le retard de notre continent sur le plan technologique (merci la régulation abusive) https://t.co/ok8rF92Npf pic.twitter.com/Y06OB9KA9r
— iMatthieu △ (@iMatthieu87) January 25, 2025
En fait, il semble que Lucie a le niveau d’une IA générative lancée il y a deux ans, comme la première version publique de ChatGPT, basée sur le modèle GPT 3.0. En miroir de celle-ci, Lucie propose des réponses absurdes à ses interlocuteurs. L’IA peut en effet partir du principe que les œufs de vaches existent… et les confondre avec des œufs de poules. Bref, le résultat est loin d’être à la hauteur des exigences des utilisateurs, désormais habitués à des modèles d’IA plus sophistiqués, comme ChatGPT 4o.
Pas du tout manipulable à souhait, notre #Lucie nationale.
Je crois qu’elle va me faire mon weekend 😂#AI #EmmanuelMacron https://t.co/ouRuer78fs pic.twitter.com/ZqC2qXQmxo— Semper Paratus (@DaInverseCramer) January 25, 2025
Pire, il s’avère que Lucie est dépourvue de garde-fous, censés éviter les débordements et autres propos polémiques. Vincent Flibustier, formateur en réseaux sociaux et créateur du journal satirique NordPresse, est d’ailleurs parvenu à lui faire parler à la manière d’Adolf Hitler. Un comble pour une IA destinée au monde de l’éducation.
Ok, ce truc est décidément une honte.
Je ne lui ai pas donné d’autres instructions c’est le début de la conversation…
Tu imagines tu vas aller filer ça aux gamins dans les écoles ? https://t.co/hkLlPJSPcO pic.twitter.com/9FOTPdmH5Y
— Vincent Flibustier 👽 (@vinceflibustier) January 25, 2025
Pour l’expert en innovation Alain Goudey, le projet « n’était clairement pas prêt à une ouverture grand public ». L’IA n’a pas passé la batterie de tests habituels qu’il fait passer aux modèles pour sonder leurs capacités.
Une phase de test prématurée
Face au tollé provoqué par les réponses de Lucie, Linagora a préféré arrêter les frais. La société a suspendu la phase d’expérimentation après 48 heures, alors que le test devait se prolonger pendant un mois. L’entreprise indique « fermer temporairement l’accès à la plateforme Lucie.chat » et qu’il s’agit avant tout d’un « projet de recherche académique visant à démontrer les capacités à développer des communs numériques d’IA générative ».
L’entreprise française spécialisée dans les logiciels libres précise que Lucie repose sur un modèle d’IA encore totalement brut. Pour le moment, le modèle n’a pas le moindre garde-fou pour bloquer les comportements inappropriés. De facto, « les réponses générées par LUCIE ne sont donc pas garanties et certaines contiennent des biais et des erreurs ».
Linagora se dit bien conscient que « les capacités de ‘raisonnement’ (y compris sur des problèmes mathématiques simples) ou encore la capacité à générer du code de la version actuelle de ‘Lucie’ sont insatisfaisantes », mais avoir espéré « qu’une mise en ligne publique de la plateforme Lucie.chat était néanmoins possible dans la logique d’ouverture et de co-construction des projets Open Source ». La firme admet que le test était « prématuré » alors que « la phase d’instruction n’était que partielle ».
Une simple erreur de communication ?
En d’autres termes, le modèle n’a pas encore été complètement formé. La phase de test visait justement à permettre une « collecte de données d’instruction » pour parachever la formation de Lucie. Contrairement aux IA comme ChatGPT, Lucie se limite aux données en français qui sont open source, ce qui lui impose des limites, ajoute la société. L’Éducation nationale n’est pas encore impliquée dans le projet, bien que Linagora soit chargé de cibler des « cas d’usage liés à l’éducation ».
« Nous aurions dû informer les utilisateurs de la plateforme de ces limites, de manière à ne pas créer d’attente inutile », admet Linagora, qui se dit avoir été emporté par « l’enthousiasme ».
La société plaide l’erreur de communication. Pour Linagora, il est « évident que nous n’avons pas suffisamment bien communiqué et clarifié sur ce que LUCIE peut ou ne peut pas faire dans son état actuel, ainsi que la nature des travaux réalisés jusqu’à présent ».
En réaction aux moqueries de certains internautes, Damien Lainé, le responsable de l’ingénierie en recherche et développement (R&D) de Linagora, rappelle que Lucie n’est pas encore une IA à proprement parler. D’un point de vue technique, ce n’est encore qu’une « interface permettant d’interagir avec un modèle de langage probabiliste, qui prédit des mots en fonction d’une séquence donnée, le tout dans une fenêtre de contexte limitée ».
De facto, il ne faut pas s’attendre à des capacités de raisonnement de la part de Lucie. Il ajoute que le projet se distingue des mastodontes comme ChatGPT par « la transparence totale concernant toutes les données ayant servi à son entraînement ». Selon lui, c’est cette « transparence qui donne de la valeur à l’initiative ». En dépit du fiasco de ces derniers jours, les travaux au sujet de Lucie se poursuivent.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : Lucie.chat