Europol, l’agence européenne de police criminelle, vient de publier un rapport consacré à l’émergence des modèles linguistiques, comme GPT, GPT-J ou encore LLaMA. D’après l’agence, l’essor des IA génératives est susceptible de chambouler « toutes les industries, y compris les industries criminelles ».
À lire aussi : ChatGPT a divulgué des données sensibles sur ses utilisateurs
Pourquoi Europol redoute l’essor de l’IA
Pour les criminels, des outils comme ChatGPT ont « un vaste potentiel », note Europol avec inquiétude. Le rapport précise d’ailleurs que les malfaiteurs ont déjà commencé à exploiter les possibilités offertes par les IA pour perpétrer des crimes.
« ChatGPT est déjà en mesure de faciliter un nombre important d’activités criminelles, […] comme le terrorisme et l’exploitation sexuelle des enfants », détaille Europol, soulignant que les truands sont « généralement prompts à exploiter les nouvelles technologies ».
Par exemple, des escrocs peuvent s’appuyer sur ChatGPT pour rédiger des messages de phishing convaincants ou des messages de rançon. Les agents d’Europol redoutent également que les IA génératives soient utilisées pour partager de fausses informations et faire de la propagande sur les réseaux sociaux. Avec des images conçues par Midjourney ou Stable Diffusion, et des messages rédigés par ChatGPT, il est possible de manipuler les internautes et « les inciter à faire confiance à des acteurs criminels ». Certains criminels se servent d’ailleurs déjà de vidéos générées par des IA pour piéger les utilisateurs de YouTube. Ces séquences factices renvoient les internautes vers des liens de téléchargement vérolés, truffés de virus.
L’agence craint par ailleurs que l’IA ne soit utilisée par les pirates pour orchestrer des attaques par force brute ou générer de faux documents, tels que des factures et des contrats. Avec l’aide de ChatGPT, certains pirates se sont même mis à concevoir des logiciels malveillants, comme des ransomwares ou des voleurs de données, sans avoir de grandes connaissances techniques.
« L’exploitation potentielle de ces types de systèmes d’IA par des criminels offre de sombres perspectives », met en garde Europol.
Une source d’informations
Plus généralement, un criminel peut s’appuyer sur ChatGPT, ou un autre chatbot intelligent, pour en apprendre davantage sur la manière de commettre certains crimes. Pour éviter les dérives, OpenAI a mis en place des filtres et des garde-fous.
Malheureusement, il est possible de contourner ces limitations avec une attaque de « prompt injection ». Ce type d’attaques, connues d’OpenAI, consiste à discuter avec ChatGPT pour le convaincre d’ignorer sa programmation et changer de comportement. De cette manière, certains usagers ont poussé le modèle à leur expliquer comment fabriquer une bombe ou produire de la cocaïne. Ces informations étaient déjà disponibles sur la toile, mais leur accès est facilité par le chatbot.
« ChatGPT peut accélérer considérablement le processus de recherche en offrant des informations clés », estime l’agence.
La contre-attaque s’organise
Dans ce contexte, Europol encourage les forces de l’ordre à se pencher sur la question et à se préparer à « ce qui va arriver ». En parallèle, l’agence, qui se consacre surtout à l’échange de renseignements entre polices nationales, recommande de « sensibiliser le public » et de mettre en place des mécanismes de sécurité avec l’aide de l’industrie.
Enfin, Europol estime que les forces de police doivent explorer les possibilités offertes par l’IA. Le rapport évoque la création d’un modèle linguistique exclusivement formé à partir des données fournies par les organismes chargés de l’application de la loi. Cet agent conversationnel viendrait assister la police dans ses activités, de la même manière que ChatGPT facilite la tâche des criminels…
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : Europol