Derrière les investissements annoncés de 109 milliards pour la France et de 200 milliards pour l’Union européenne, le « sommet pour l’action de l’IA » de Paris, qui s’est achevé mardi 11 février, a-t-il fait avancer les sujets de sécurité face aux risques liés aux systèmes d’IA ? Les États du monde entier ont-ils trouvé un consensus sur ce dossier ô combien sensible ?
Pour certains experts, le sommet de l’IA de Paris n’a permis aucune avancée : au contraire, ces derniers notent un recul de la prise en compte du sujet. Ce malgré les déclarations d’Emmanuel Macron prônant un « cadre de confiance » nécessaire au développement de l’IA. Et ce malgré un début de sommet prometteur.
« Je ne suis pas venu ici pour parler de sécurité de l’IA »
Le 6 février en amont de l’événement, un « rapport sur la sécurité de l’IA » était publié, une sorte de « synthèse de la littérature scientifique sur la sécurité de l’IA », équivalente au rapport du GIEC pour l’IA. Des événements parallèles et de conférences étaient organisés – par exemple par l’ONG Pause IA.
Mais c’était sans compter sur le discours offensif du vice-président américain V.D. Vance, qui est venu balayer tout espoir de faire avancer cette question. « Je ne suis pas venu ici pour parler de sécurité de l’IA », a déclaré le technophile en clôture de l’événement, mardi 11 février. Il est temps de prendre des risques et de mettre de côté toute prudence excessive, a-t-il dit en substance, taclant au passage la volonté des Européens de « serrer la vis » des géants de l’IA et du numérique américains avec sa réglementation « excessive » et « onéreuse ».
À lire aussi : « L’Amérique ne l’acceptera pas » : le vice-président US met en garde l’Europe et sa réglementation IA
La sécurité de l’IA était pourtant, deux ans plus tôt, le sujet principal du sommet de Bletchley, organisé en 2023 au Royaume-Uni. Mais cette dernière a été reléguée au deuxième – voire au dernier – plan. Elle est à peine évoquée dans la déclaration finale de la France.
Un retour en arrière pour certains experts
Un décalage qui s’explique pour plusieurs raisons. D’abord parce que la nouvelle administration américaine défend une approche de dérégulation. Donald Trump a supprimé les quelques rares garde-fous mis en place par Joe Biden en la matière, et a entamé un bras de fer avec le reste du monde – dont l’Europe – pour qu’aucune contrainte réglementaire ne vienne entraver le développement de ses champions américains.
À lire aussi : De la sidération à la négociation : comment le duo Trump-Musk a fait vaciller l’Europe en 13 jours
Le pays a d’ailleurs refusé de signer la déclaration finale du sommet. Dans ce texte non contraignant, la soixantaine de signataires (dont l’Union européenne et la Chine) s’engagent à promouvoir une IA « sûre et de confiance ». À côté des États-Unis, le Royaume-Uni et les Émirats arabes unis ont aussi choisi de ne pas signer le texte, preuve qu’un consensus même pour une simple déclaration de bonne volonté n’est pas près d’émerger.
De même, si un organe spécifique français a été créé avant le sommet – l’INESIA (Institut national de l’évaluation et de la sécurité de l’IA) – il dispose de bien peu de moyens – il n’a pas en effet été doté de financement propre. De quoi constituer un véritable pas en arrière que regrettent certains, à l’image du Centre pour la Sécurité de l’IA (CeSIA), une association française composée de chercheurs et experts.
Dans un communiqué publié mardi en fin de journée, l’association regrette « le décalage frappant entre les investissements massifs dans l’IA et les ressources allouées à sa sécurisation ». Même son de cloche chez Yoshua Bengio, lauréat du prix Turing en 2018, fondateur et directeur scientifique de Mila, l’Institut québécois d’Intelligence artificielle, pour qui ce sommet « a manqué (l’)occasion » d’« abord(er) avec réalisme la question urgente des risques associés au développement rapide des modèles de pointe », écrit-il sur son compte X.
« La science démontre que l’IA pose des risques majeurs dans un horizon de temps qui exige que les dirigeants mondiaux s’en saisissent beaucoup plus sérieusement », écrit-il encore.
Le patron de la start-up d’IA Anthropic, Dario Amodei, déplore aussi cette « opportunité ratée ». « Le temps presse », écrit-il dans un communiqué, les « discussions internationales » doivent « aborder plus en détail les risques croissants liés à la sécurité de cette technologie ».
Pas d’évaluation des risques des outils d’IA par les autorités publiques
D’autant que les régulateurs n’ont que peu de moyens d’évaluer les risques inhérents à un outil d’IA générative, avant qu’il ne soit rendu accessible à des utilisateurs. Ces derniers sont confrontés au phénomène de la « boîte noire » que les géants de l’IA refusent d’ouvrir, comme c’était déjà le cas pour les réseaux sociaux.
Difficile dans ce cas de mesurer et d’évaluer des risques, sans cet accès et cette collaboration des entreprises technologiques. Les sociétés de l’IA évaluent elles-même leurs propres travaux, regrettait déjà en 2023 l’ex premier ministre britannique, pendant le sommet de Bletchey. Deux ans plus tard, on en est toujours au même point malgré l’AI Act, le règlement européen sur l’IA, et malgré un code de bonnes pratiques sur l’intelligence artificielle en cours d’élaboration depuis septembre 2024.
Pour Mathias Cormann, le secrétaire général de l’OCDE qui s’exprimait lors d’une table ronde le 11 février pendant le sommet, « l’OCDE a élaboré des principes sur l’IA qui ont été mis à jour dernièrement afin de faciliter le développement d’une IA sûre, de confiance, centrée sur l’être humain, mais il nous faut (…) identifier de manière systématique les risques et déployer des approches pour atténuer ces risques. À l’OCDE, nous avons un système de suivi d’incidents (…), nous avons un genre d’observatoire pour identifier les mesures politiques mises en place ». Mais « il nous faut (…) un cadre de gouvernance, un cadre réglementaire général. Nous en sommes loin actuellement et il faut rattraper notre retard afin de pouvoir bénéficier en toute sécurité des bienfaits de l’IA ».
Il faut « s’inquiéter dès aujourd’hui des outils d’IA actuels », selon ce professeur
Pour Paul Salmon, professeur à l’Université de Sunshine Coast en Australie, l’« indifférence des gouvernements et du public à l’égard des problèmes de sécurité de l’IA » s’explique par plusieurs malentendus. Dans The Conversation, ce dernier explique par exemple qu’il faut « s’inquiéter dès aujourd’hui des outils d’IA actuels » Ces technologies « causent déjà des dommages importants aux êtres humains et à la société », ajoute-t-il, citant notamment les « ingérences dans les élections, le remplacement du travail humain, la prise de décision biaisée, les deepfakes, la désinformation et la mésinformation ».
La sécurité n’est pas le seul sujet à avoir été mis de côté pendant le sommet. Comme le note Contexte ce mercredi 12 février, l’attachement à « la protection des données personnelles et de la vie privée », une mention qui était bien présente dans la version initiale de la déclaration finale du sommet, a finalement disparu du texte signé par la soixantaine de pays. Dans un communiqué publié au premier jour du sommet, le Défenseur des droits, cette autorité française chargée de défendre nos droits et libertés, insistait pourtant « pour que les droits fondamentaux ne soient pas oubliés dans ce moment important ».
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.