Passer au contenu

OpenAI prévient que l’on peut s’attacher émotionnellement aux voix de ChatGPT

Les chatbots n’ont jamais été aussi proches de se faire passer pour des humains, et ce qui est vrai à l’écrit l’est également pour la voix. OpenAI, qui s’apprête à déployer de nouvelles voix plus vraies que nature pour ChatGPT, alerte sur les risques qui pèsent sur l’anthropomorphisation de son chatbot.

ChatGPT va gagner de nouvelles voix extrêmement sophistiquées, qui seront disponibles à tous les abonnés payants d’ici cet automne. Ces compétences vocales sont si réalistes que Scarlett Johansson a cru reconnaitre sa propre voix, obligeant OpenAI à suspendre « Sky », la voix synthétique incriminée par l’actrice.

Lire Les nouvelles voix de ChatGPT commencent à se faire entendre

Dans sa « carte du système » qui liste les risques liés à GTP-4o, le dernier modèle de langage d’OpenAI, l’entreprise reconnait que les voix anthropomorphes peuvent pousser certains utilisateurs à s’attacher émotionnellement au chatbot. Les chercheurs de la société ont observé des cas où les utilisateurs créait une connexion émotionnelle avec le modèle.

Cette anthropomorphisation peut bénéficier aux personnes solitaires qui voudraient casser le moule ou pratiquer des interactions sociales sans craindre les regards moqueurs. Mais ces voix presque humaines peuvent aussi nuire à des relations saines et enfermer les plus timides dans leur bulle.

Autre danger : les voix du bot pourraient amener les utilisateurs à accorder plus de confiance à des réponses « hallucinées » du bot. Parmi les autres risques potentiels posés par GPT-4o, OpenAI relève l’amplification des biais sociétaux, la diffusion de désinformation et… l’aide au développement d’armes chimiques !

OpenAI indique également que des tests ont été effectués pour éviter que les modèles IA ne tenteront pas de briser leurs chaînes et planifier des catastrophes. Mieux vaut éviter que l’IA devienne Skynet…

Cette étude est la réponse d’OpenAI aux craintes soulevées par des employés et des experts concernant les mesures prises par l’entreprise pour contenir les dangers potentiels de son IA. Révéler ces détails permet d’atténuer les critiques et surtout, démontrer qu’elle est prend ces questions au sérieux.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Wired


Mickaël Bazoge
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *