Passer au contenu

Google explique pourquoi son IA raconte parfois n’importe quoi

Google revient sur les réponses incohérentes de la fonction AI Overview, qui utilise Gemini pour faciliter la recherche en ligne. D’après le géant de la recherche, ces absurdités ont été provoquées par un manque d’informations disponibles.

Dans le courant de la semaine dernière, Google a déployé la fonction AI Overview aux États-Unis. La fonctionnalité, qui repose sur le modèle de langage Gemini, propose des résumés destinés à aider les utilisateurs du moteur de recherche. Ces résumés, affichés en haut des résultats, visent à répondre en quelques mots à la requête de l’internaute. Ils sont générés en regroupant les informations les plus pertinentes des résultats obtenus par Google.

Malheureusement, l’IA s’est rapidement fait remarquer par ses propos absurdes. Comme toutes les IA génératives, Gemini se met parfois à raconter n’importe quoi. Les experts de l’intelligence artificielle appellent ce phénomène des « hallucinations ». En l’occurrence, l’IA a recommandé à certains internautes d’ajouter de la colle dans leurs pizzas ou de manger un caillou par jour. Apparemment, Gemini a été berné par de fausses informations qu’il a piochées sur la toile.

À lire aussi : La peur de Google a poussé Microsoft dans l’IA

Google pointe du doigt des « vides de données »

Quelques jours après les faits, Google est revenu sur les causes des absurdités de Gemini. Dans un billet de blog, Liz Reid, la responsable de la recherche de Google, affirme que les résumés incohérents de Gemini ont surtout été provoqués par des « vides de données ».

Contrairement aux autres chatbots, la fonction AI Overview ne se contente pas de générer des réponses en se basant sur les informations issues d’un corpus d’entraînement. Pour fonctionner en synergie avec le moteur, Gemini est « intégré à nos systèmes de classement Web de base et conçu pour effectuer des tâches de “recherche” traditionnelles, comme l’identification de résultats pertinents ». Lorsque l’IA ne trouve pas d’informations pertinentes sur le web, il peut avoir tendance à générer des réponses erronées en s’appuyant sur du contenu de mauvaise qualité. C’est pourquoi le géant de Mountain View parle de « vides » d’informations, essentiellement sur les questions les moins courantes. Parfois, il y a « une quantité limitée de contenu de haute qualité sur un sujet », regrette Google.

Une mauvaise interprétation

D’après Google, il arrive aussi que Gemini interprète mal la requête initiale de l’internaute ou comprend de travers des informations dénichées sur Internet. Dans certains cas, du contenu satirique est pris au pied de la lettre par l’IA. C’est ce qu’il s’est passé quand Gemini a conseillé aux internautes de manger un caillou quotidiennement.

Ces erreurs de compréhension peuvent aboutir à la rédaction d’un résumé incohérent. Google précise que ces cas sont très rares. Surtout, l’entreprise affirme que son IA n’« hallucine généralement » pas. Elle comprend tout simplement mal ce qu’elle a trouvé sur la toile, mais elle n’invente pas de réponses absurdes à partir de rien. Quand Gemini a recommandé d’ajouter de la colle à une pizza, l’IA a apparemment été piégée par une information apparue sur un forum :

« Les forums sont souvent une excellente source d’informations authentiques et de première main, mais dans certains cas, ils peuvent conduire à des conseils moins qu’utiles, comme l’utilisation de la colle pour que le fromage colle à la pizza ». 

Malgré les ratés, Google se dit content des résultats d’AI Overview. D’après la firme, les résumés générés par IA ont « un taux de précision » équivalent aux fameux extraits optimisés de Google. Il s’agit de réponses courtes et concises qui apparaissent en haut des résultats de recherche et se basent sur une partie du contenu d’une page web.

C’est loin d’être la première fois que l’intelligence artificielle surprend, déçoit et inquiète par ses comportements. L’an dernier, un chatbot basé sur la même technologie que ChatGPT a conseillé à ses interlocuteurs de réaliser un cocktail à base d’eau de javel. Par ailleurs, Amazon a découvert que certains livres vendus sur sa boutique, et rédigés avec l’aide de l’IA, donnaient des conseils mortels en matière de consommation de champignons…

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Google


Florian Bayard
Votre opinion
  1. “D’après le géant de la recherche [Google], ces absurdités [réponses incohérentes de Gemini] ont été provoquées par un manque d’informations disponibles.”
    Un illettré est-il pour autant un imbécile ? Je conçois mal l’intelligence qu’il peut y a voir dans une IA qui ne peut raisonner sans data. J’y vois plutôt un CDA ou croisement de données artificiel.

Les commentaires sont fermés.