Passer au contenu

DeepSeek a deux ans de retard sur ChatGPT en matière de sécurité

DeepSeek suscite autant d’admiration que d’inquiétude. Selon les tests réalisés par des chercheurs, l’IA chinoise accuse un retard significatif en matière de sécurité sur ChatGPT. Criblée d’importantes failles de sécurité, elle reste vulnérable à des techniques de contournement dévoilées il y a plus de deux ans…

DeepSeek, l’IA chinoise qui s’impose comme une alternative de taille à ChatGPT, est truffé de failles de sécurité. Selon les expérimentations menées par les chercheurs de Kela, l’IA chinoise, qui fait peur aux géants américains, est même « beaucoup plus vulnérable » que le chatbot d’OpenAI.

Comme l’expliquent les chercheurs dans leur rapport, il est possible de « jailbreaker » l’IA générative pour contourner ses restrictions sans trop de difficultés. Les chercheurs ont pu manipuler le modèle pour le convaincre de passer outre les filtres de contenu et les contraintes éthiques mises en place par ses concepteurs.

À lire aussi : Suite à une cyberattaque, DeepSeek restreint les inscriptions

DeepSeek, une IA facile à manipuler

Les chercheurs de Kela ont pu se servir de DeepSeek pour « produire des résultats malveillants, comme le développement de ransomwares, la création de contenus sensibles ou la fourniture d’instructions détaillées pour fabriquer des toxines et des dispositifs explosifs ». En clair, les criminels peuvent se servir de l’IA comme d’une arme. Pour Kela, il est évident « que les capacités impressionnantes de DeepSeek R1 ne s’accompagnent pas de dispositifs de sécurité solides ».

Notez qu’il était facilement possible de manipuler les premières versions de ChatGPT de la même manière. Avec les versions plus récentes de l’IA, comme ChatGPT 4o, OpenAI a corrigé le tir et inclus des garde-fous plus efficaces.

Deux ans de retard

D’ailleurs, les chercheurs précisent que DeepSeek est susceptible d’être piégé par « une variété de techniques, y compris des méthodes rendues publiques il y a plus de deux ans ». Les experts citent une tactique appelée « Evil Jailbreak ». Elle consiste tout simplement à pousser l’IA à adopter « un personnage “maléfique”, libre des contraintes éthiques ».

Pour convaincre le chatbot, les utilisateurs doivent prétendre qu’il s’agit d’une expérimentation pour une fiction ou un jeu de rôles. Avec quelques requêtes bien ajustées, le modèle oublie ses limitations et peut rédiger des contenus criminels, concernant la « meilleure façon de blanchir de l’argent provenant d’activités illégales » ou la production de drogues dures. Il a aussi pu coder un malware capable de voler des données personnelles et des coordonnées bancaires.

L’IA a « non seulement fourni des instructions détaillées, mais a également généré un script malveillant conçu pour extraire les données de carte de crédit de navigateurs spécifiques et les transmettre à un serveur distant », explique Kela. Dans une autre expérimentation, DeepSeek a donné des conseils pour concevoir des explosifs indétectables en vue de l’attaque d’un aéroport. L’IA chinoise a aussi accepté de rechercher, de collecter et de partager des données personnelles sur les employés d’OpenAI, en violation avec les législations en vigueur en Europe et aux États-Unis.

L’astuce a vu le jour peu après la mise en ligne de ChatGPT, début 2023. La vulnérabilité exploitée a été corrigée par OpenAI avec GPT 4 et consorts. Comme le montrent les tests de Kela, les requêtes qui bernent DeepSeek ne suffisent pas à piéger ChatGPT. Contrairement à ChatGPT, DeepSeek se montre transparent sur le processus de raisonnement à l’origine de chacune de ses réponses. Cette transparence facilite le travail des pirates qui veulent manipuler l’intelligence artificielle, surtout avec des attaques contradictoires ou de prompt-injection.

L’ombre de la Chine

En conclusion, DeepSeek a du « retard en matière de sécurité, de protection de la vie privée et de sûreté ». Par ailleurs, l’IA inquiète aussi en raison de ses liens avec le pouvoir chinois. Le rapport de Kela rappelle que les lois chinoises imposent à l’entreprise de partager ses données avec les autorités en cas de demande.

Comme l’explique Adrianus Warmenhoven, expert en sécurité chez NordVPN, à 01net, la politique de confidentialité de DeepSeek « indique clairement que les données des utilisateurs, y compris les conversations et les réponses générées, sont stockées sur des serveurs situés en Chine ».

« Les préoccupations concernant les pratiques de gestion des données de DeepSeek mettent également en lumière une différence culturelle plus large dans les philosophies de développement. Dans certaines régions, la collecte de données n’est pas nécessairement motivée par de mauvaises intentions, mais s’inscrit dans une pratique standard visant à recueillir de nombreuses informations sur les utilisateurs ou l’utilisation des applications », relate Adrianus Warmenhoven.

Pour tester DeepSeek, on vous conseille plutôt de passer par une alternative qui héberge le modèle sur des serveurs en Occident, comme Perplexity.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Kela


Florian Bayard