Passer au contenu

La loi californienne qui voulait mettre au pas les géants de l’IA est retoquée

Après quatre semaines d’intenses débats outre Atlantique, Gavin Newsom, le gouverneur de Californie, a finalement choisi de mettre son veto au tout premier projet de loi qui aurait rendu, aux États-Unis, les entreprises d’IA responsables des dommages causés par leurs systèmes.

Gavin Newsom, le gouverneur de Californie qui devait apposer sa signature sur la toute première grande réglementation portant sur l’IA aux États-Unis, aura fait durer le suspens jusqu’au bout. Le couperet est finalement tombé dimanche 29 septembre dans la soirée. Le projet de loi californien, qui visait à rendre les entreprises de l’intelligence artificielle responsables des dommages causés par leurs systèmes d’IA, ne sera finalement pas adopté. Au tout dernier moment, le gouverneur de cet État américain, qui abrite de nombreuses sociétés du secteur, a posé son véto sur le texte, rapporte le Wall Street Journal. Le projet était « bien intentionné », mais il ne constituait pas « la meilleure approche pour protéger le public contre les véritables menaces posées par la technologie », a expliqué le démocrate, dans un communiqué.

Le projet de loi avait pourtant franchi toutes les étapes de sa difficile adoption avant ce dernier coup d’arrêt : fin août, le texte, appelé « SB 1047 », était arrivé sur le bureau de Gavin Newsom, après avoir reçu le feu vert de l’assemblée et du Sénat local. Bien que limité aux frontières de la Californie, il devait s’appliquer à de très nombreuses entreprises du secteur comme OpenAI, le développeur de ChatGPT, ou Anthropic. Le « Golden State » abrite une trentaine des 50 plus grandes entreprises d’IA au monde. Pour certains, le projet aurait pu servir de modèle aux futures règles fédérales.

À lire aussi : Comment cette simple loi en Californie pourrait bouleverser tout le secteur de l’IA 

Un interrupteur, une responsabilité en cas de dommages importants ou mortels…

Le texte imposait en effet aux entreprises développant des IA de partager avec l’administration locale leurs protocoles de sécurité. Si ces outils entraînaient la mort ou causaient d’importants dégâts matériels, les sociétés pouvaient être poursuivies par le procureur général de Californie. Les entreprises du secteur devaient enfin présenter des méthodes permettant « d’arrêter » les modèles d’IA en cas de « défaillance » : autant d’éléments que les sociétés de la Silicon Valley souhaitaient écarter.

Le projet de règlementation avait en effet suscité de nombreux débats outre Atlantique, les uns estimant qu’il s’agissait d’un « texte historique », les autres d’une loi « fondamentalement erronée et mal ciblée », à l’image d’OpenAI, de Meta, de Google ou encore de Microsoft. Pour ces derniers, « SB 1047 » imposait des normes bien trop vagues, au nom de la sécurité. D’autres entreprises, plus petites, s’étaient jointes à la bronca, estimant que le texte allait à l’encontre de l’innovation. Le projet interdisait aux entreprises de lancer des modèles d’IA à partir du moment où ces derniers présentaient « un risque déraisonnable » de « causer matériellement un préjudice grave », des termes jugés trop vagues qui créeraient d’immenses incertitudes juridiques, arguaient les critiques.

Un « revers pour ceux qui croient en la surveillance de ces grandes entreprises »

Le gouverneur de la Californie, qui avait jusqu’à la fin du mois pour se prononcer, a finalement penché en faveur des opposants au projet de règlementation. Pour le démocrate, le texte ne s’appliquait qu’aux modèles d’intelligence artificielle les plus grands et les plus coûteux. Pour ne pas entraver le développement des IA open-source, seuls les très grands modèles de langage, « dont l’entraînement nécessite plus de 100 millions de dollars de données », étaient concernés.

Scott Wiener, le sénateur à l’origine du projet de loi, a déploré ce « revers pour tous ceux qui croient en la surveillance des grandes entreprises – (des sociétés NDLR) qui prennent des décisions cruciales pour la sécurité, le bien-être du public et l’avenir de la planète ». Avant cette fin de non-recevoir, le gouverneur de Californie avait signé d’autres législations relatives à l’IA : l’une d’entre elles impose des mentions « généré par l’IA » pour tous les contenus créés par ces systèmes, pendant qu’une autre a trait aux deepfakes liées aux élections.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Stéphanie Bascou