Passer au contenu

G7, décret Biden, Giec de l’IA, organe de l’ONU, AI Act… La frénésie réglementaire pour encadrer l’IA continue

Ce lundi 30 octobre, le G7 s’est entendu sur les principes directeurs d’un code de conduite sur l’intelligence artificielle, pendant que le président américain Joe Biden a publié un décret visant à réguler le secteur. Il s’agit des deux dernières initiatives destinées à réglementer les systèmes d’IA génératives. Ces deux éléments s’ajoutent à une liste de projets qui, depuis des mois, ne cesse de s’allonger.

La course à la réglementation de l’intelligence artificielle (IA) générative bat encore et toujours son plein. Après le « Pacte sur l’intelligence artificielle » entre l’Union européenne et les entreprises du secteur de l’IA, après le code de conduite commun aux États-Unis et à l’Europe de juin dernier, de nouvelles initiatives pour tenter de réguler l’IA ont émergé ce lundi 30 octobre. Le G7 a annoncé s’être mis d’accord sur les principes directeurs de son code de conduite relatif à l’IA, pendant qu’un décret de la Maison-Blanche, contraignant les entreprises américaines du secteur à davantage d’obligations, a été signé.

Quelques jours plus tôt, un Giec de l’IA et un organe consultatif de l’ONU ont été évoqués. Le règlement européen sur l’IA est toujours, quant à lui, en cours d’adoption. Retour sur la frénésie règlementaire du secteur de ces dernières semaines, durant lesquelles les systèmes d’IA comme ChatGPT gagnent en puissance et en popularité… tout en étant toujours peu réglementés, pour l’instant.

Le code de conduite du G7, non contraignant

Ce lundi 30 octobre dans la matinée, le G7 s’est accordé sur les lignes directrices du code de conduite, selon la présidence japonaise. Il s’agit d’un corpus de règles non contraignantes destinées aux développeurs d’IA, approuvés par les dirigeants de ces sept pays (la France, l’Allemagne, le Canada, les États-Unis, l’Italie, le Japon et le Royaume-Uni) ainsi que l’Union européenne. Margrethe Vestager, l’ancienne commissaire européenne en charge de la concurrence, avait évoqué l’idée de ce code volontaire en mai dernier. Ce texte, initié dans le cadre du processus d’Hiroshima sur l’IA, pourra être adopté par les entreprises et les institutions du secteur, en attendant que les lois (comme l’AI Act) en bonne et due forme soient votées.

Les entreprises qui signeront ce code de 11 points s’engageront, sur la base du volontariat, à un certain nombre de mesures. Elles devront identifier les risques éventuels encourus par l’utilisation des systèmes d’IA. Elles seront contraintes de signaler publiquement les capacités et les limites de leurs systèmes. Elles devront créer des structures de gouvernance de l’IA, investir dans des contrôles de sécurité et garantir la protection de la vie privée.

Autres points recommandés : un système d’étiquetage devra permettre aux utilisateurs d’identifier les contenus générés par l’IA. Des observateurs indépendants seront aussi en charge de contrôler tous les stades du développement et de la mise sur le marché de l’IA. Dans la déclaration du G7, il est précisé que ces recommandations devront être réexaminées périodiquement, si nécessaire, pour s’adapter à « l’évolution rapide de la technologie ».

Reste qu’il s’agit d’un texte non contraignant qui repose sur la bonne volonté des entreprises développant l’IA. La présidente de la Commission européenne, Ursula von der Leyen, a salué la nouvelle sur son compte X et dans un communiqué de ce lundi. Elle « invite les développeurs d’IA à signer et à mettre en œuvre ce code de conduite dès que possible »… en attendant que l’AI Act, le règlement européen sur l’IA, soit adopté et appliqué.

Le décret présidentiel sur l’IA de la Maison-Blanche

Autre texte qui a été signé ce lundi : un décret du gouvernement de Joe Biden, qui, lui aussi, vise à contrôler les « menaces liées à l’intelligence artificielle » allant de la protection de la vie privée aux risques liés à l’emploi et à la sécurité nationale. Selon le communiqué de la Maison-Blanche publié ce lundi, le décret vise à « favoriser un développement sûr, sécurisé et digne de confiance de l’IA ». Il s’appuie sur « des engagements volontaires de la part de 15 grandes entreprises »… en allant bien plus loin.

D’abord, les développeurs des systèmes d’IA les plus puissants devront partager les résultats de leurs tests de sécurité et d’autres informations critiques avec le gouvernement américain, selon le communiqué.

Ce sera notamment le cas pour les « systèmes d’IA en développement qui présentent des risques graves pour la santé et la sécurité (…), l’économie ou la sécurité nationale ». Cette communication devra avoir lieu avant que ces outils ne soient rendus accessibles au public. Cela devrait peu plaire à OpenAI, Google ou encore Anthropic, puisque ces entreprises du secteur étaient jusque-là peu contraintes à la moindre transparence. Ces sociétés peuvent jusqu’à présent mettre leur système à disposition du public, sans avoir à partager leurs résultats de tests avec l’administration américaine. Le communiqué ne précise toutefois pas si cette dernière pourrait empêcher la mise sur le marché américain d’un outil d’IA, en raison de résultats de tests de sécurité qui seraient jugés « insuffisants ».

Le décret comporte aussi des éléments moins contraignants, comme ceux relatifs à la cybersécurité. Le texte vise à « protéger les Américains de la fraude et de la tromperie », notamment en facilitant la détection de contenus générés par l’IA. Il prévoit par exemple que le ministère du Commerce américain « élabore des orientations pour (…) l’utilisation de filigranes, afin d’étiqueter clairement les contenus générés par l’IA. Les agences fédérales utiliseront ces outils pour permettre aux Américains de savoir facilement que les communications qu’ils reçoivent de leur gouvernement sont authentiques ».

Les auteurs du communiqué évoquent aussi des mesures comme la production d’un rapport sur les impacts potentiels de l’IA sur le marché du travail. L’étude « d’options pour renforcer le soutien aux travailleurs confrontés à des perturbations du marché du travail, y compris à cause de l’IA » est aussi mentionnée. Le texte vise enfin à faciliter l’emploi aux États-Unis de travailleurs hautement qualifiés étrangers que s’arrachent les entreprises du secteur, via une modernisation des critères d’octroi des visas. Ce décret, qui comporte pour une fois des dispositions obligatoires et applicables, permettra de réguler le secteur en attendant une future loi du Congrès américain – les Parlementaires américains restent pour l’instant divisés à ce sujet.

Un Giec de l’IA

Le Royaume-Uni est aussi entré dans les rondes des tentatives de réglementations du secteur. Le pays compte, à l’occasion de son forum sur l’IA, qui aura lieu les 1ᵉʳ et 2 novembre, annoncer un Giec de l’IA. C’est ce qu’a évoqué Rishi Sunak, le premier ministre britannique, le 26 octobre dernier. L’idée d’un groupe d’experts mondial, chargé de publier un rapport sur l’état des connaissances relatives à l’IA – sur le modèle du Giec pour le climat – avait déjà été émise par la présidente de la Commission européenne, Ursula von der Leyen, le 13 septembre dernier.

L’ONU crée son organe consultatif sur l’IA

À noter que l’ONU a également décidé de créer un organe consultatif sur l’IA, qui devra « étudier les risques et les possibilités qu’offre l’intelligence artificielle ». Il sera composé de 39 experts provenant d’entreprises du secteur, d’universitaires, mais aussi de membres de gouvernements et d’administrations, comme on peut le voir dans la liste publiée sur le site des Nations Unies la semaine dernière. Parmi eux, Rahaf Harfoush, membre du Conseil national du numérique, repérée par Contexte, ce lundi 30 octobre.

Le « Frontier Model Forum » des entreprises de l’IA

Il faut enfin relever cette initiative des entreprises du secteur, principalement situées aux États-Unis, qui sont loin d’être restées les bras croisés. On sait qu’elles ont rencontré à plusieurs reprises les membres du gouvernement Biden, comme ceux de la Commission européenne. Certaines veulent peser davantage dans le débat sur la réglementation du secteur. Le 26 juillet dernier, quatre entreprises américaines de l’IA – à savoir Google, Microsoft, Anthropic et OpenAI – ont décidé de créer leur organisation professionnelle, le « Frontier Model Forum ». L’objectif est de promouvoir un « développement responsable et sûr » pour les « frontier models », les systèmes d’IA les plus sophistiqués, en émettant un certain nombre de règles. Le 25 octobre, le directeur de cette organisation a été désigné, selon le Financial Times. Il s’agit de Chris Meserole, l’ancien directeur chargé de l’IA au sein de la Brookings Institution, un think tank américain.

Parallèlement, l’AI Act, le Règlement européen sur l’IA, est encore et toujours en cours d’adoption. La prochaine négociation entre les trois colégislateurs européens (la Commission, le Parlement européen et le Conseil) aura lieu lors du cinquième trilogue, qui se tiendra le 6 décembre prochain, pour une entrée en vigueur dans deux ans et demi, au plus tôt. En attendant, de nouvelles tentatives de réglementation pourraient encore émerger.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Déclaration du G7 du 30 octobre 2023


Stéphanie Bascou