Quand les géants de l’intelligence artificielle tentent de murmurer à l’oreille des régulateurs… Ces 1ᵉʳ et 2 novembre a lieu le sommet sur la sécurité de l’intelligence artificielle (IA) au Royaume-Uni. À cette occasion, les principales entreprises du secteur comme OpenAI ou Google appliqueront leurs différentes « stratégies » pour tenter de peser dans le débat et tirer les futures lois à leurs avantages, préviennent des experts.
Agiter la menace d’une extinction de l’humanité causée par l’IA, demander à l’envi d’être régulé, présenter l’IA comme une évidence… Ces principales tactiques déployées par les patrons et lobbyistes du secteur ne manqueront pas d’être observées pendant ces deux jours du sommet de Bletchley Park, cet ancien centre de décryptage britannique de la Seconde Guerre mondiale, situé à une cinquantaine de minutes de Londres.
Brandir la menace de l’extinction de masse
À commencer par la première stratégie des géants de l’IA, qui aurait été mise en place dès le mois de mars dernier. Il s’agit de brandir le spectre de la destruction de l’humanité qui serait causée par l’IA, un risque qui n’est pas forcément nié, mais qui serait volontairement exagéré et exacerbé, selon des experts. Dans la lettre ouverte réclamant un moratoire de six mois sur le développement de l’IA, signée par plus de 1 000 chefs d’entreprises en mars dernier, ses auteurs s’alarment des « risques profonds pour la société et l’Humanité » posés par ces systèmes d’IA. « Atténuer le risque d’extinction (de l’Humanité, ndlr) lié à l’IA devrait être une priorité mondiale », écrivent-ils.
Depuis, OpenAI, Microsoft et DeepMind ont, à maintes reprises, repris ce message. Le 26 octobre dernier, OpenAI a par exemple expliqué dans un article de blog qu’il comptait réunir une équipe d’experts pour lutter contre les risques « catastrophiques » de l’IA au sein d’une nouvelle équipe, appelée « Preparedness ». « Ces leaders (du secteur, ndlr), qui font avancer l’IA générative, sont – de manière contre-intuitive – ceux qui tirent la sonnette d’alarme sur les risques et qui font le plus d’efforts pour influencer le processus d’élaboration des lois. Ils sont à la fois ceux qui crient “au feu” dans un théâtre vide et ceux qui arrivent avec le camion de pompiers », analyse Lewis Liu, fondateur d’Eigen Technologies, une entreprise spécialisée dans le traitement du langage naturel, dans les colonnes du Financial Times.
Andrew Ng, professeur à l’université de Stanford interviewé par l’Australian Financial Review le 30 octobre dernier, va même plus loin. Celui qui a enseigné l’apprentissage automatique à Sam Altman, et qui a dirigé l’IA chez Baidu, estime que cette idée même – que l’intelligence artificielle puisse conduire à l’extinction de l’humanité – est un mensonge. Il serait utilisé par les grandes entreprises technologiques avec un objectif : aboutir à une réglementation lourde qui mettrait fin à la concurrence sur le marché de l’IA, en privilégiant les premiers arrivés comme OpenAI-Microsoft ou Google.
Pour Andrew Ng, on part de l’idée « selon laquelle l’IA pourrait nous faire disparaître » pour aboutir à une autre idée. À savoir : le seul moyen de rendre l’IA plus sûre serait d’imposer de lourdes exigences à l’industrie de l’IA – ce qui écraserait de fait l’innovation – et les nouveaux concurrents, dont ceux qui développent des modèles d’IA open source. « Il y a certainement de grandes entreprises technologiques qui préféreraient ne pas avoir à essayer de rivaliser avec l’IA open source, alors elles créent la peur que l’IA conduise à l’extinction de l’humanité », explique-t-il à nos confrères.
À lire aussi : IA : Google et OpenAI se heurtent à un rival inattendu
Cette extinction de l’humanité est devenue « une arme de lobbyistes pour défendre une législation qui serait très préjudiciable à la communauté open-source », ajoute-t-il. Ce dernier ne plaide pas pour une absence de réglementation, mais pour « une réglementation réfléchie » qui commencerait par davantage de transparence de la part des entreprises technologiques.
Même son de cloche chez Yann Le Cun, le chercheur français considéré comme l’un des pères du deep learning, qui pilote la recherche en IA chez Meta – le groupe de Mark Zuckerberg est le seul GAFAM à avoir proposé un modèle de langage en open source (LLaMA). Et pour le lauréat du prix Turing 2018, considéré comme le Nobel de l’informatique, « le débat sur le risque existentiel est très prématuré ». L’idée selon laquelle l’IA pourrait tuer l’humanité, à dessein ou par défaut, est « absurde », expliquait-il au Financial Times le mois dernier. Pour l’instant, « nous n’aurons pas conçu un système capable de rivaliser avec un chat en termes de capacités d’apprentissage ».
À lire aussi : Meta ambitionne de surpasser ChatGPT 4 avec son prochain modèle d’IA
Pour Yann Le Cun, le fait de se focaliser sur d’hypothétiques futurs risques d’extinction de l’humanité a un objectif : montrer que les principales entreprises technologiques sont les seules à pouvoir développer l’IA en toute sécurité. Et cela conduira à imposer une règlementation qu’il estime être trop lourde sur la recherche et développement de toutes les entreprises, pour se prémunir de ce risque existentiel, au lieu de se concentrer sur le déploiement des produits. Résultat : la concurrence des modèles open source, dont Meta fait partie, sera entravée, souligne-t-il. À la fin, seules quelques entreprises de la Silicon Valley et de la Chine contrôleront les plateformes d’IA, déplore-t-il sur son compte X.
Se concentrer uniquement sur les « frontier models »
Cette tactique rejoint celle qui consiste à seulement réguler les futurs systèmes d’IA, ou les modèles d’IA les plus avancés, les « frontier models », qui seraient bien plus dangereux que ceux déployés aujourd’hui. En focalisant ses efforts sur ce qui n’existe pas encore, sur un futur lointain, on ne régule pas les systèmes actuels.
Or, selon un groupe d’experts à l’origine d’un « contre-sommet » sur l’IA qui avait lieu lundi 30 octobre, le sommet mondial des 1ᵉʳ et 2 novembre ne traite pas de « l’urgence manifeste » de l’IA. Pourtant, il y a fort à faire puisque les dangers des outils actuels, accessibles au grand public comme ChatGPT, Bard, Dall-E… ont été documentés et décriés. Parmi les problèmes identifiés, on trouve des déficits de transparence, la diffusion de fausses nouvelles et de deepfakes générées par l’IA, l’utilisation d’œuvres protégées par le droit d’auteur ou d’autres droits à des fins d’entraînement des systèmes d’IA, l’exploitation d’une main-d’œuvre sous-payée pour former ces outils, les biais racistes ou sexistes, ou encore la concentration du pouvoir dans les mains de quelques entreprises – cette liste est loin d’être exhaustive.
C’est cette stratégie qui consiste à cantonner les débats sur les futurs systèmes les plus sophistiqués qui aurait été adoptée par Google, Microsoft, Anthropic et OpenAI. Ces quatre entreprises ont annoncé en juillet dernier la création d’une organisation professionnelle appelée « Frontier Model Forum ». L’objectif présenté serait justement de promouvoir un « développement responsable et sûr » pour les « frontier models ». Mais qu’est-ce que serait une IA sûre, responsable ou éthique pour ces modèles d’IA les plus avancés ? Pas de réponse claire pour l’instant, d’autant qu’une telle définition proviendrait des principaux acteurs du secteur qui feront tout pour ne pas se mettre des bâtons dans les roues, avec des règles trop lourdes ou trop contraignantes.
Et cette stratégie aurait fonctionné dans certains pays. Aux États-Unis, le décret publié lundi 30 octobre impose aux développeurs d’IA une nouvelle obligation de partage, avec l’administration américaine, des résultats de leurs tests de sécurité, avant de rendre l’IA accessible au public. Mais cette notification ne s’appliquerait qu’aux IA en développement « qui présentent des risques graves pour la santé et la sécurité (…), l’économie ou la sécurité nationale ». Exit donc les systèmes existants, qui doivent cependant toujours respecter « les lois existantes » sur la concurrence et la protection des consommateurs, a rappelé Lina Khan, la cheffe de l’autorité de la concurrence aux États-Unis sur son compte X. Le font-ils réellement ? La question se pose.
« Régulez-nous ! »
Le fait de brandir la menace de l’extinction de l’humanité a un corollaire : la demande de régulation. C’est l’approche adoptée par Sam Altman, le patron d’OpenAI, la start-up à l’origine de ChatGPT. Le trentenaire n’a cessé de réclamer d’être régulé, comme lors de son audition au Sénat américain en mai dernier. « Lorsqu’une entreprise bien positionnée demande d’être réglementée, même si elle semble capituler pour rendre service à l’industrie, elle tente une manœuvre connue sous le nom de “capture réglementaire”. Pourquoi ? Elle en sait plus sur la technologie que les régulateurs », expliquait l’un des anciens responsables de Microsoft, Steven Sinofsky, sur son compte X. Il s’agit de « demander littéralement d’être réglementé en prétendant que la technologie est hors de contrôle », ajoute-t-il.
1/ There are two reactions a company can have when faced with calls for regulation. One is to appear to capitulate & work w/regulators to find a least disruptive path. Other is to fight it knowing you’re turning over control of your roadmap to a bureaucracy. There’s one more…
— Steven Sinofsky (@stevesi) May 18, 2023
« Soyez très méfiants à l’égard des leaders de la technologie AI qui lèvent les mains et disent : “régulez-moi, régulez-moi'”. Les gouvernements pourraient être tentés de se précipiter et de les prendre au mot », a noté Nigel Toon, le PDG du fabricant de puces AI Graphcore, dans un article de blog du 23 octobre.
Car si la régulation est censée contraindre les puissants à respecter les règles du jeu, l’histoire montre que ce n’est pas tout à fait exact, rappelle Stephen Mihm, professeur d’histoire à l’université de Géorgie aux États-Unis, dans les colonnes du Washington Post. Dans le passé, des entreprises qui dominaient un secteur ont aussi ouvertement plaidé en faveur d’une réglementation, comme le fait actuellement Sam Altman. Mais à l’époque, comme aujourd’hui, leur motivation était davantage liée à leurs profits et à leurs avantages concurrentiels qu’à l’intérêt général, ajoute-t-il en référence à ce qu’on appelle la « capture réglementaire ».
Ce concept a été théorisé par l’économiste George Stigler en 1971, dans un article intitulé « Théorie de la réglementation économique ». Selon ce dernier, les grandes entreprises en place utilisent généralement les réglementations pour contrecarrer leurs concurrents. La réglementation finirait presque toujours par servir les intérêts de ces sociétés, en imposant par exemple de très nombreuses formalités qu’elles seules sont capables de respecter.
À lire aussi : G7, décret Biden, Giec de l’IA, organe de l’ONU, AI Act… La frénésie réglementaire pour encadrer l’IA continue
La capture réglementaire reviendrait donc à laisser les entreprises rédiger des règles qui serviraient leurs intérêts, au détriment de l’intérêt général – une théorie qui pourrait trouver des points de convergence aujourd’hui. Lors de l’audition de Sam Altman devant le Sénat américain, on a pu entendre le sénateur républicain de Louisiane John Kennedy demander ni plus ni moins au patron d’OpenAI : « Dites-nous quelles règles mettre en œuvre ». Les patrons des géants du secteur ont été reçus à la Maison-Blanche, au Sénat américain, à la Commission européenne. Les autres parties au débat ont-ils été autant sollicités ?
Au sommet sur la sécurité de l’IA près de Londres qui a lieu en ce moment, les entreprises dominant actuellement l’IA sont surreprésentés, relèvent des spécialistes cités par The Guardian, mardi 31 octobre. Une occasion manquée pour certains, car « le sommet a omis d’inviter une plus large représentation d’experts et de personnes touchées par les perturbations causées par l’IA » souligne Marietje Schaake, ancienne eurodéputée et conseillère spéciale de la Commission européenne chargée de la mise en œuvre du règlement sur les services numériques, citée par nos confrères.
Elle ajoute : « Le gouvernement britannique a écouté les entreprises qui optent pour l’autorégulation (…) » – et la mise en place d’engagements volontaires. Les voix dissonantes seront-elles aussi entendues ?
À lire aussi : Règlement sur l’IA : pourquoi ça coince encore en Europe ?
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.