Passer au contenu

Plus de 20 cyberattaques ont exploité ChatGPT en 2024, révèle OpenAI

OpenAI reconnait que des groupes de cybercriminels se servent de ChatGPT dans leurs opérations. Depuis le début de l’année, plus de 20 cyberattaques en partie basées sur l’usage du chatbot ont été recensées. En revanche, les hackers n’ont pas vraiment révolutionné le secteur…

L’essor de l’IA générative profite aux cybercriminels. Depuis l’arrivée de ChatGPT, de nombreux pirates et escrocs se sont tournés vers l’intelligence artificielle pour faciliter leurs activités. Si certains criminels se servent de l’IA pour rédiger des messages de phishing convaincants dans une langue qu’ils ne maitrisent pas forcément, d’autres individus malveillants utilisent les modèles linguistiques pour coder des malwares.

L’IA et le cybercrime

Il y a quelques mois, les chercheurs de HP Wolf Security ont d’ailleurs identifié une cyberattaque, optimisée avec l’aide de l’IA, visant les internautes qui résident en France. Selon les investigations des chercheurs, les hackers ont confié à l’intelligence artificielle la rédaction d’une série de scripts malveillants.

Au cours des derniers mois, le boom de l’IA a beaucoup profité aux gangs spécialisés dans les ransomwares. Enrichis par les outils d’IA, les virus taillés pour l’extorsion sont devenus de plus en plus dangereux, et de plus en plus faciles à déployer sur les systèmes cibles.

À lire aussi : IA, phishing, QR Code, deepfake… – voici les grandes menaces qui planent sur le web

« Plus de 20 opérations et réseaux trompeurs » en 2024

Pour la toute première fois, OpenAI confirme officiellement que des pirates se sont servis de ChatGPT pour orchestrer des cyberattaques. Dans un billet de blog publié le 9 octobre 2024, la start-up américaine, désormais valorisée à hauteur de 157 milliards, indique avoir recensé « plus de 20 opérations et réseaux trompeurs » tirant parti des possibilités offertes par ChatGPT depuis le début de l’année.

Le rapport d’OpenAI décrit notamment comment SweetSpecter, un gang d’espions chinois, s’est servi de ChatGPT dans ses opérations. L’une des cibles du gang n’était autre qu’OpenAI et ses salariés. Le groupuscule a d’abord envoyé de fausses demandes d’assistance aux adresses e-mail personnelles des employés d’OpenAI. Ces requêtes factices contenaient des pièces jointes malveillantes renfermant un virus du nom de SugarGh0st RAT. Une fois déployé sur l’ordinateur des victimes, il prenait le contrôle total.

Les cybercriminels chinois utilisaient ChatGPTpour rechercher des failles de sécurité ou des codes exploitables dans les systèmes informatiques d’OpenAI, et de leurs autres victimes. Les pirates ont surtout interrogé l’IA au sujet de vulnérabilités critiques, mais aussi pour isoler un bug dans du code malveillant.

Le robot conversationnel a aussi été massivement utilisé par CyberAv3ngers, un groupe affilié au Corps des Gardiens de la révolution islamique, une branche de l’armée de l’Iran. Les pirates iraniens sont passés par des comptes ChatGPT légitimes. Ils ont demandé au chatbot de fournir les identifiants par défaut utilisés par les dispositifs électroniques de certains systèmes industriels, de créer des scripts personnalisés et d’obscurcir le code de leurs outils. Ce procédé consiste à complexifier du code pour mettre des bâtons dans les roues des enquêteurs. 

Des tests, mais pas de « percées » pour les pirates

Comme l’admet OpenAI, les pirates « continuent d’évoluer et d’expérimenter nos modèles », mais la start-up n’a pas « de preuves que cela conduit à des percées significatives dans leur capacité à créer des malwares substantiellement nouveaux ». En clair, ChatGPT n’a pas révolutionné la manière dont les hackers génèrent de nouveaux logiciels malveillants, selon OpenAI.

Après avoir pris connaissance des activités des pirates, OpenAI a évidemment tout mis en œuvre pour « perturber les tentatives d’abus de nos modèles à des fins préjudiciables ». Les comptes utilisés ont été bannis. L’entreprise de Sam Altman indique aussi que ses « équipes de renseignement, d’enquête, de sécurité, de sûreté » continueront de tout faire pour « anticiper comment les acteurs malveillants peuvent utiliser des modèles avancés à des fins dangereuses ».

Les pirates ont donc adopté les IA génératives, mais c’est aussi le cas de leurs opposants, les chercheurs en sécurité. Plusieurs firmes se sont mises à utiliser l’IA générative pour protéger les internautes. C’est le cas de McAfee, qui a mis au point une technologie qui se sert de l’intelligence artificielle pour protéger les internautes contre les messages de phishing, ou de Bitdefender, qui a développé un détecteur de messages et de liens malveillants animé par l’IA.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : OpenAI


Florian Bayard