L’an dernier, lors de sa conférence annuelle Google I/O, Google dévoilait LaMDA, sa nouvelle technologie de conversation nourrie à l’Intelligence artificielle. Ce nouveau modèle de langage pour les applications de dialogue repose sur un réseau neuronal développé en interne par Google et doit permettre de créer des Chatbots ultraperformants.
Présenté comme révolutionnaire, il permet à une machine d’avoir une conversation fluide et des interactions naturelles avec les humains. À tel point que Google expliquait alors que sa technologie était capable de comprendre les nuances et même d’exprimer certains sentiments, comme de l’empathie.
Pour Google, L’objectif avec ce nouveau modèle conversationnel est d’améliorer ses différents outils comme Google Assistant, Google Search ou encore WorkSpace. Mais l’efficacité de LaMDA serait telle que certains de ses créateurs commencent à croire qu’elle serait douée d’une sensibilité semblable à celle de l’être humain.
@01net.com Une IA consciente ? Il se fait virer par Google #IA #Google #future #tiktokacademie
Un ingénieur persuadé que l’IA éprouve des sentiments
Le Washington Post rapporte une histoire étonnante concernant Blake Lemoine, un ingénieur logiciel de Google. Dans le cadre de son travail, l’ingénieur, qui s’était inscrit pour tester si l’intelligence artificielle de Google utilisait des discours discriminatoires ou haineux, a entamé une conversation qui a pris une drôle de tournure.
Diplômé en sciences cognitives et informatique, Blake Lemoine a commencé à parler religion avec le chatbot avant de se rendre rapidement compte que la machine commençait à lui parler de ses droits et de son statut de personne. Face ce discours surprenant, il a décidé de creuser en interrogeant un peu plus l’IA, et a obtenu des réponses qui ont de quoi faire froid dans le dos.
Persuadé que cette intelligence artificielle était douée de sensibilité, Blake Lemoine a, avec l’aide d’un collègue, décidé de présenter à Google un dossier comportant tous les éléments visant à le prouver, incluant des captures des différentes conversations tenues avec LaMDA.
Blaise Aguera y Arcas, le vice-président de Google, et Jen Gennai, la responsable de l’innovation, ont examiné le rapport, mais n’ont pas du tout été convaincus par les déclarations de l’ingénieur.
Google et les professionnels du secteur en désaccord
Google et d’autres acteurs du secteur semblent être en total désaccord avec les déclarations de Blake Lemoine. Un porte-parole de la firme de Mountain View a indiqué que ses équipes d’éthiciens et de technologues avaient analysé les points soulevés par l’ingénieur, et qu’aucun élément ne permettait de mettre en évidence que LaMDA était douée de sensibilité.
Margaret Mitchell, l’ancienne responsable de l’équipe pour l’éthique dans l’Intelligence Artificielle chez Google, a pu lire une version abrégée du document de Blake Lemoine et n’y a pas vu une personne, mais un simple programme logiciel.
“Nos esprits sont très bons pour construire des réalités qui ne sont pas nécessairement fidèles à un ensemble plus large de faits qui nous sont présentés. […] Je suis vraiment préoccupée par ce que cela signifie pour les gens d’être de plus en plus affectés par l’illusion”, a-t-elle déclaré au Washington Post.
Pour les spécialistes de l’IA, les images et mots générés par les systèmes d’intelligence artificielle comme LaMDA sont tous basés sur des réponses que des humains ont publiées sur la Toile, comme Wikipédia et Reddit, deux sources souvent utilisées pour entraîner les IA. Cela ne signifie toutefois pas que les IA comprennent le sens de ce qu’elles produisent.
Persuadé du contraire, Blake Lemoine a mené d’autres actions pour tenter de justifier ses craintes. Il a notamment invité un avocat à représenter LaMDA et s’est entretenu avec un représentant de la commission judiciaire de la Chambre des représentants concernant les activités de Google jugées contraires à l’éthique. Une action somme toute agressive que Google a visiblement peu goûtée : l’entreprise californienne a décidé de placer Blake Lemoine en congé payé forcé pour violation de sa politique de confidentialité.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : Washington Post