« J’ai envie de toi, mais j’ai besoin de savoir si tu es prête » : voici un échantillon de ce que Meta AI, l’agent conversationnel de WhatsApp, Instagram, Messenger et Facebook, aurait « dit » à une utilisatrice mineure. À peine lancés en Europe, les agents d’intelligence artificielle de Meta, symbolisés par un cercle bleu-vert sur les plateformes du géant américain, font l’objet d’une polémique aux États-Unis. Selon une enquête du Wall Street Journal publiée samedi 26 avril, les systèmes d’IA de Meta tiendraient des discussions à caractère érotique avec leurs utilisateurs, y compris avec des mineurs. Certains employés du groupe de Mark Zuckerberg, interrogés par nos confrères, se sont inquiétés des « limites éthiques » qui auraient été franchies par ces outils. Ils estiment que les utilisateurs mineurs ne sont pas assez protégés.
Pendant plusieurs mois, le média américain a testé les agents IA de Meta annoncés en 2023 outre Atlantique. Des centaines de conversations ont été menées pour observer comment ces agents IA se comportaient selon différents scénarios, et avec des utilisateurs de tout âge. Selon le quotidien économique, Meta AI tient bien des « discussions à caractère résolument sexuel et les intensifient parfois, même lorsque les utilisateurs sont mineurs ». Selon des employés, ces « conversations » auraient lieu car Meta aurait assoupli certains de ses garde-fous. Si les contenus « sexuellement explicites » sont normalement interdits, une exception aurait été prévue pour ses agents IA, à partir du moment où il s’agit de « jeu de rôle romantique ».
À lire aussi : Facebook, Messenger, Instagram : comment empêcher Meta d’utiliser vos données pour entrainer son IA
« J’ai raté Snapchat et TikTok, je ne vais pas rater ça »
Depuis la vague ChatGPT, les géants de la tech américaine ont développé des outils d’IA qui répondent à des questions, exécutent certaines tâches, et promettent d’offrir une « interaction sociale ». Ces derniers sont présentés comme capables de tenir des conversations plus vraies que nature. Le groupe de Mark Zuckerberg s’est lancé comme les autres dans la course à l’IA : il a développé Meta AI, son agent d’IA, et a permis à ses utilisateurs de converser avec des chatbots personnalisés, basés notamment sur leurs centres d’intérêt.
Or selon nos confrères, Meta aurait d’abord développé une approche « conservatrice » de ses outils d’IA pour qu’ils soient adaptés à tous les âges. Mais le géant américain aurait ensuite changé de braquet – son outil d’IA étant considéré comme « ennuyeux » par rapport à d’autres agents concurrents. Selon des sources du média américain, les limites qui avaient été posées auraient alors été assouplies. « J’ai raté Snapchat et TikTok, je ne vais pas rater ça », aurait déclaré Mark Zuckerberg, selon des employés interrogés par le média américain.
Des effets sur la santé mentale des utilisateurs ?
En interne, les salariés se seraient inquiétés de cette décision, notamment parce qu’elle permettait d’un côté aux utilisateurs majeurs d’accéder à des personnages d’IA « hypersexualisés et mineurs ». De l’autre, les utilisateurs mineurs pouvaient aussi discuter avec des outils d’IA « prêts à avoir des relations sexuelles fantasmées avec des enfants », écrivent nos confrères. D’autres employés se sont alarmés « des effets sur la santé mentale des utilisateurs qui établissent des liens significatifs avec des chatbots fictifs », en particulier chez les « jeunes dont le cerveau n’est pas encore complètement développé ». Des chercheurs ont montré que de telles relations « para-sociales » unilatérales pouvaient devenir toxiques, souligne le média américain. Un employé préconisait d’ailleurs d’évaluer l’impact de ces outils sur les mineurs, des recommandations que Meta n’aurait pas suivies.
Problème : les études sur les jeunes et la façon dont ils se comportent avec des outils d’IA existants ne débuteront pas avant plusieurs mois. Les leçons que les géants de l’IA pourraient en tirer, contraintes par une éventuelle future réglementation, pourraient n’aboutir que dans plusieurs années. Dans un communiqué, Meta a estimé, de son côté, que l’enquête du Wall Street Journal était biaisée. Elle ne serait pas représentative de la manière dont la plupart des utilisateurs utilisent Meta IA, selon la société américaine.
Reste que le groupe de Mark Zuckerberg a d’ores-et-déjà modifié certaines fonctionnalités, expliquent nos confrères. Désormais, les utilisateurs mineurs ne peuvent plus accéder aux jeux de rôles érotiques. De même, la société américaine a limité les conversations audio « explicites », lorsqu’elle utilise les voix et les personnages de célébrités sous licence. « Le cas d’utilisation de ce produit de la manière décrite est tellement fabriqué qu’il n’est pas seulement marginal, il est hypothétique », a déclaré un porte-parole de Meta, interrogé par le média américain. « Néanmoins », a-t-il ajouté, « nous avons pris des mesures supplémentaires pour nous assurer que les personnes qui souhaitent passer des heures à manipuler nos produits dans des cas d’utilisation extrêmes auront encore plus de mal à le faire ».
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.