Une nouvelle arnaque à l’amour fait parler d’elle. Un homme originaire de Shanghai en Chine est tombé dans le piège d’une bande d’escrocs exploitant l’intelligence artificielle, rapporte la chaine chinoise CCTV.
Avec des photos et des vidéos générées de toutes pièces, ils ont pu convaincre la victime qu’elle entretenait une relation avec une jeune femme séduisante, appelée « Mme Jiao ». Certaines vidéos montrent celle-ci dans plusieurs situations de la vie quotidienne, en ballade dans la rue par exemple. Contrairement aux images utilisées dans l’arnaque au faux Brad Pitt, les deepfakes, partagés par les médias chinois, sont visuellement très convaincants.
« Il y a deux éléments clés dans les arnaques au sentiment : l’identification de la victime et de ses points faibles, cela passe par de l’ingénierie sociale qui permet aux pirates de recueillir les informations que l’on distille sur soi sur les réseaux sociaux, les sites de rencontre, etc. Sur la base de cette connaissance, les pirates vont créer un lien intime avec leur victime et petit à petit générer un sentiment d’attachement fort », explique Luis Delabarre, expert en cybersécurité de Nomios, à 01Net.
De nos jours, il n’est pas toujours possible de déceler s’il s’agit d’un deepfake ou d’une image authentique. La technologie progresse si rapidement que les signes distinctifs permettant de repérer une image truquée se raréfient. Comme l’explique l’expert, les deepfakes « sont de plus en plus réalistes et il est très facile de tomber dans le piège ». En dépit de la qualité des contenus, la jeune femme était purement fictive.
À lire aussi : Vague d’arnaques sur Gmail – le FBI met en garde contre le phishing dopé à l’IA
Faux rapports médicaux et fausse carte d’identité
Une fois que la victime était sous le charme, les escrocs lui ont fait croire que sa petite amie avait de gros problèmes financiers. Par message, la jeune femme imaginaire a prétexté les frais médicaux d’un proche et son intention d’ouvrir une entreprise afin de réclamer de l’argent. Pour endormir la méfiance de la cible, les criminels ont généré de faux rapports médicaux et une carte d’identité au nom de la petite amie. Il est assez facile de concevoir de faux documents de cet acabit pour des criminels.
« Désormais, les attaquants utilisent l’IA pour créer des faux documents, dans ce cas une carte d’identité fictive — et des faux petits/petites amis/es grâce à des outils d’IA de plus en plus accessibles », analyse Luis Delabarre.
Il n’a « jamais rencontré en personne » sa petite amie, mais il en est tombé amoureux. Sous la coupe de l’IA, l’homme a fini par verser près de 200 000 yuans, environ 26 250 euros, sur le compte bancaire partagé par ses interlocuteurs. Sans surprise, les escrocs ont disparu sans laisser de traces avec l’argent de la cible.
À lire aussi : DeepSeek met les bouchées doubles pour lancer son nouveau modèle d’IA
L’essor des arnaques au deepfake
C’est loin d’être la première fois que des cybercriminels exploitent l’IA dans le cadre d’une arnaque aux sentiments. C’est d’ailleurs devenu le quotidien des brouteurs, ces escrocs basés en Afrique qui écument les réseaux sociaux à la recherche de cibles crédules. Avec les deepfakes, certains pirates s’attaquent aussi à des cibles haut-placées. L’an dernier, un directeur financier d’Hong-Kong a détourné plus de 25 millions de dollars après une fausse réunion avec ses responsables. Il s’est vite avéré que des voleurs ont usurpé l’identité de ses supérieurs en se servant de deepfakes. Plus récemment, des escrocs ont cloné la voix du ministre de la Défense italien pour réclamer des sommes colossales à des entrepreneurs, dont le designer Giorgio Armani.
Alors que l’IA évolue à pas de géants, Meta, le groupe derrière Facebook et Instagram, recommande à tous les internautes de faire preuve de prudence. Peu avant l’affaire de la fausse petite amie, Meta a émis un avertissement au sujet de la recrudescence des arnaques romantiques en ligne. L’entreprise invite tout le monde à se montrer « poliment paranoïaque » lors d’une rencontre virtuelle. Attention, ne vous contentez pas d’un appel téléphonique ou vidéo pour dissiper vos doutes. En effet, les « escrocs peuvent même utiliser les bots générés à l’IA afin de créer une personne ou passer des appels avec une fausse voix sans même avoir besoin d’intervention humaine ». Une rencontre en personne reste indispensable.
« Malheureusement, il nous faut désormais être de plus en plus vigilants sur toutes les interactions que nous avons en ligne, avec des inconnus et jusqu’à notre propre famille ! », résume l’expert de Nomios.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.