Certains d’entre vous se souviennent peut-être de Tay AI, ce chatbot « intelligent » que Microsoft a été contraint de déconnecter au bout de seize heures, car il s’est rapidement transformé en un robot néo-nazi et sexiste. Il faut dire qu’il était censé apprendre au contact des utilisateurs, mais ces derniers n’étaient pas animés des meilleures intentions.
Le youtubeur Yann Kilcher – qui est par ailleurs docteur en philosophie et en intelligence artificielle – a réussi à faire encore pire, mais de façon volontaire. Il a utilisé un dataset constitué de trois ans de messages de la rubrique « Political Incorrect », de 4chan, pour entraîner un chatbot de conversation basé sur le modèle GPT-J 6B. Cette rubrique est l’une des pires de 4chan, car elle regorge de propos racistes, complotistes, sexistes, etc. Et, sans surprise, l’intelligence artificielle ainsi créée est totalement à l’image de ces données d’entraînement. Baptisé « GPT-4chan », c’est un monstre rempli de haine.
Histoire de mettre sa créature à l’épreuve, Yann Kilcher l’a connecté sur une dizaine de faux comptes 4chan et l’a laissé interagir avec les utilisateurs de la rubrique « Political Incorrect ». En l’espace de 24 heures, ces bots ont généré plus de 15 000 messages et ont roulé dans la farine la plupart de leurs interlocuteurs. Les messages étaient tellement crédibles que les utilisateurs humains n’ont pas pensé avoir à faire à des robots. Ils subodoraient plutôt… une opération gouvernementale. Ce qui était finalement assez logique étant donné la nature de la rubrique.
Au bout de quelques jours, les utilisateurs de 4chan ont quand même découvert le pot aux roses. De temps en temps, en effet, les bots avaient la fâcheuse habitude de publier des messages vides, ce qui était particulièrement étrange. Dès lors, la théorie des bots a pris le dessus, et Yann Kilcher a fini par révéler la supercherie. Bravo l’artiste !
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : EnGadget