Un « texte historique » pour les uns, « fondamentalement erroné et mal ciblé » pour les autres, qui aurait plus de portée que l’AI Act ? Jeudi 29 août, « SB 1047 », le projet de loi visant à réguler l’IA en Californie, est arrivé sur le bureau de Gavin Newsom, le gouverneur de cet État américain qui abrite de nombreuses entreprises de l’IA. Sa signature marquera la dernière étape dans l’adoption de ce texte, qui a reçu le feu vert de l’assemblée et du sénat local.
Et si Gavin Newsom choisit de signer ce projet de loi, il pourrait s’agir de la toute première réglemention américaine qui s’appliquerait à l’IA – le Congrès américain n’est pour l’instant pas parvenu à s’entendre sur un texte. Bien que limité aux frontières de la Californie, il s’appliquerait à de très nombreuses entreprises du secteur comme OpenAI, le développeur de ChatGPT, ou Anthropic. Le « Golden State » abrite 35 des 50 plus grandes entreprises d’IA au monde, selon le Guardian. Une fois adopté, le texte pourrait même servir de modèle aux futures règles fédérales.
Des tests de sécurité et un interrupteur
Sans surprise, le projet, qui pourrait contraindre les entreprises californiennes à de nouvelles obligations, est suivi de très près par les géants de l’IA. Tout l’objectif du texte est en effet d’éviter que les grands modèles de langage ne soient utilisés pour causer des dommages particulièrement importants – ce qui englobe l’utilisation de l’IA pour fabriquer des armes chimiques ou pour mener des cyberattaques d’envergure sur des sites stratégiques.
Ainsi, ces entreprises devraient, si le projet de loi entre en vigueur, tester leurs modèles d’IA avant de pouvoir entraîner et lancer leurs systèmes. Elles seraient contraintes de partager avec l’administration locale leurs protocoles de sécurité. Si leurs systèmes d’IA entraînent la mort ou causent d’importants dégâts matériels, elles pourraient être poursuivies par le procureur général de Californie.
Selon Reuters, elles devraient aussi présenter des méthodes permettant « d’éteindre », « d’arrêter » les modèles d’IA en cas de « défaillance » : autant d’éléments que des sociétés de la Silicon Valley souhaiteraient écarter.
Une loi qui paralysera le secteur, selon ses détracteurs
OpenAI, Google et Meta, qui ont lancé respectivement ChatGPT, Gemini et Llama, font partie des pourfendeurs du texte. Les trois géants estiment que ces règles de sécurité devraient être définies au niveau national (fédéral). Selon le trio, le projet de loi se trompe tout simplement de cible : au lieu de viser en aval ceux qui utilisent l’IA à des fins nuisibles, il s’appliquerait en amont aux entreprises qui développent les systèmes d’IA. Ce qui pourrait avoir des effets néfastes sur la recherche en IA, expliquait en juin dernier sur X Yann LeCun, le responsable IA de Meta.
https://x.com/ylecun/status/1806557611413627032
Pour des organisations défendant les intérêts de la Silicon Valley, ce projet de loi se baserait « sur des fantasmes de science-fiction sur ce à quoi l’IA pourrait ressembler ». « Ce projet de loi a plus de lien avec Blade Runner ou Terminator qu’avec le monde réel. Nous ne devrions pas paralyser le principal secteur économique de la Californie à cause d’un scénario théorique » », a taclé l’un de ses membres, dans une lettre adressée au gouverneur.
Bon nombre de personnalités outre Atlantique ont pris position sur le texte. Nancy Pelosi, l’ancienne présidente de la Chambre des représentants, a par exemple déclaré que « le texte est plein de bonnes intentions, mais il est mal renseigné ». D’autres estiment qu’il va pousser de nombreuses entreprises à quitter la Californie, et qu’il entravera l’innovation. Une vision que conteste l’homme politique à l’origine du projet de loi, le sénateur démocrate Scott Wiener. « L’innovation et la sécurité peuvent aller de pair — et la Californie montre la voie », s’est-il défendu, dans un communiqué.
Selon Landon Klein de l’ONG Future of Life Institute interrogé par Axios, l’opposition de certaines entreprises d’IA n’a rien de surprenant. « Si ces dernières doivent s’assurer que leurs systèmes sont sûrs avant de les lancer, elles devraient alors assumer une certaine responsabilité pour les dommages potentiels qui surviennent une fois ces modèles utilisés par le grand public, et franchement, elles ne veulent tout simplement pas faire face à cette responsabilité ».
Le texte n’affecterait pas les start-up, selon l’auteur du projet de loi
Le texte a aussi ces soutiens, dont celui, surprenant, d’Elon Musk, propriétaire de X à la tête d’une société d’IA, xAI. Le milliardaire a déclaré sur X « plaider en faveur d’une réglementation de l’IA », comparant cette dernière aux réglementations des produits ou des technologies présentant un risque pour le grand public. Anthropic, une startup spécialisée dans l’IA, fait aussi partie des soutiens du projet, en particulier depuis que son auteur, le sénateur Wiener, a intégré certaines de ses propositions. Ce dernier a par exemple limité les possibilités de poursuites du procureur général de l’État contre les entreprises d’IA californiennes.
Le projet de loi ne s’appliquerait pas à tous les systèmes d’IA : seules les entreprises domiciliées en Californie, qui forment de grands et coûteux modèles d’IA, devraient s’y conformer. Selon Scott Wiener, le texte n’affecterait pas les petites start-ups qui cherchent à concurrencer les géants de l’IA. Pour ne pas entraver le développement des IA open-source, seuls les très grands modèles de langage open-source, « dont l’entraînement nécessite plus de 100 millions de dollars de données », seraient concernés.
Reste que ce texte pourrait ne jamais entrer en vigueur : le gouverneur de Californie, Gavin Newsom, a en théorie jusqu’à la fin du mois de septembre pour se décider. Ce dernier a trois possibilités : signer la loi, opposer son veto, ou la laisser entrer en vigueur sans sa signature. Que décidera-t-il ? Le gouverneur n’a pour l’instant pas partagé publiquement sa position.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : The Guardian
Ayayay! Et Apple et Meta opposent à l’UE le contenu de l’AI Act pour ne pas publier une partie de leurs services de notre côté de l’Athlantique, un texte qui fait en fait opère surtout une classification des types d’usages faits avec l’IA, cequi est désirable et bénéfique pour le grand public ou au contraire ce qui est dangereux et doit être limité voir interdit. Autrement dit, le texte européen ne se focalise pas seulement sur les développeurs, mais aussi les potentiels entreprises (et états) qui veulent en faire usage!