Passer au contenu

Trump supprime les garde-fous sur l’IA : pourquoi on doit s’en inquiéter

Deux décrets, et un secteur de l’IA qui pourrait s’en trouver impacté. Lundi 20 janvier, dans la foulée de son investiture, le nouveau président américain a annulé un décret de Joe Biden qui cherchait à imposer de bien maigres règles aux géants de l’intelligence artificielle (IA). Jeudi, un deuxième décret prévoit de revoir toutes les règles sur l’IA adoptées par son prédécesseur. Les deux textes marquent incontestablement une nouvelle approche qui laisse les mains (plus?) libres aux géants de l’IA. A notre détriment ?

Quand l’apôtre de la dérégulation met les pleins gaz sur l’IA… Cette semaine, Donald Trump a signé deux décrets qui visent à détricoter l’embryon de législation sur l’intelligence artificielle (IA) mis en place par son prédécesseur, Joe Biden. Alors que le premier a fait partie des dizaines de décrets signés dès son investiture, le 20 janvier, le second a été publié jeudi 23 janvier.

Et d’autres pourraient bientôt suivre, car l’objectif de Donald Trump est de supprimer toute obligation qui pèserait sur les entreprises d’IA, outre Atlantique. Si cette approche était annoncée et attendue, elle marque pour le moins un véritable changement dont les remous s’observent déjà en Europe.

Que disent ces deux décrets ?

Quelques heures après avoir regagné la Maison-Blanche, Donald Trump donnait un premier coup dans la maigre régulation des géants de l’IA aux États-Unis, en annulant parmi d’autres actes symboliques « l’AI Act » de Joe Biden. Adopté en 2023, le décret de l’ancien président démocrate visait à réduire les risques liés à l’IA, en attendant que le Congrès ne s’entende sur une loi – un événement qui n’a finalement pas eu lieu, et qui n’est pas près de se produire.

Car le texte, qui imposait de bien maigres garde-fous, est tout simplement supprimé. La nouvelle a dû réjouir les patrons de la tech, qui demandaient un allégement de la règlementation sur l’IA dans le pays, à l’image du lobby des éditeurs de logiciels américains en novembre dernier.

Et si les dirigeants du secteur, en majorité présents à la cérémonie d’investiture, espéraient que le président leur laisse les mains totalement libres, ils ne pensaient peut-être pas que leur souhait allait être si vite exaucé. Car trois jours plus tard, rebelote.

Un autre décret, publié jeudi, vise cette fois à révoquer toutes les politiques gouvernementales antérieures de Joe Biden qui constitueraient « des obstacles à l’innovation américaine en matière d’intelligence artificielle ». Sans toutefois préciser quelles politiques en question sont concernées.

Le décret explique que l’administration fera un état des lieux de tout ce qui a été fait et qu’elle supprimera tout ce qui entraverait l’innovation. Le tout sans donner davantage de précision, ce qui reste extrêmement large. Le texte prévoit aussi que l’IA « promeuve l’épanouissement humain, la compétitivité économique et la sécurité nationale », en étant exempt de « préjugés idéologiques » – une idée défendue par le conseiller spécial de Donald Trump, Elon Musk.

Le milliardaire dénonce régulièrement ce qu’il appelle l’« IA woke », une IA qui serait emplie de « préjugés libéraux ». Le nouveau décret appelle enfin au déploiement d’un plan d’action approfondi sur l’IA, dans les 180 jours.

Qu’est ce que ça change en pratique ?

L’approche de Donald Trump est loin d’être une surprise : le milliardaire, qui s’est souvent présenté comme un grand défenseur de la « dérégulation » des géants de la tech, l’avait annoncé pendant sa campagne électorale : pour celui qui était encore candidat, le décret Biden sur l’IA et les normes de sécurité en la matière étaient un frein à l’innovation, un moyen d’imposer des « idées radicalement gauchistes sur le développement de cette technologie ».

Le texte de 2023 de Joe Biden imposait certaines obligations déclaratives, notamment aux entreprises développant des modèles d’IA les plus puissants comme OpenAI, Google, et d’autres géants de la technologie. Ces sociétés devaient par exemple « communiquer au gouvernement (américain) des détails sur le fonctionnement de (leurs) systèmes avant qu’ils ne soient dévoilés au public ». Elles étaient aussi contraintes de partager leurs résultats de tests de sécurité, en particulier pour les modèles présentant « des risques pour la sécurité nationale, l’économie, la santé publique ou la sécurité ».

Si on ne sait pas comment, en pratique, cette obligation a été réellement respectée par tous les acteurs du secteur, une partie d’entre eux s’étaient plaint de devoir communiquer ce qui était de l’ordre des « trade secrets », des secrets de fabrication, à l’administration. De quoi instituer, selon ces derniers, un droit de regard sur des innovations du secteur privé, qui restaient jusqu’ici entre les murs des entreprises. Pour les petites entreprises, cette obligation pouvait aussi être lourde, selon les critiques du décret. En 2024, les Républicains avaient même qualifié le texte de « dangereux ».

Pour d’autres, les restrictions ou exigences de ces lois retardaient les avancées en la matière, dans le contexte de course technologique avec la Chine. Certains partisans de Donald Trump, comme Marc Andreessen, l’investisseur en capital-risque qui siège au conseil d’administration de Meta, la maison mère de Facebook et de WhatsApp, déplorait l’existence de ces « réglementations onéreuses, alors que le reste du monde s’en réjouit et que la Chine s’en réjouit », rapporte Associated Press.

Ces arguments ont visiblement convaincu Donald Trump qui explique, dans son second décret, que l’administration va examiner tous les décrets et directives relatives à l’IA émis par son prédécesseur.

La fin d’une époque où l’on s’inquiétait des « dangers » de l’IA ?

Avec ces deux textes de Donald Trump, les géants de l’IA se trouvent a minima libérés de leurs obligations de partage d’information avec le gouvernement. Et ils pourraient être exemptés d’autres « contraintes ». C’est la direction que semble prendre l’administration fédérale américaine, qui laisserait donc au secteur privé le soin de développer l’IA, avec ses propres contrôles de sécurité. 

De quoi constituer un danger pour Max Shier, un expert en sécurité informatique américain qui était interrogé par le site d’informations spécialisées dans la cybersécurité Dark Reading. Pour ce dernier, « les entreprises privées ne devraient pas être autorisées à se gouverner elles-mêmes ou à développer leurs propres normes d’utilisation éthique ». « Il faut prévoir des garde-fous qui n’empêchent pas les petites entreprises de participer à l’innovation, mais qui permettent tout de même une certaine surveillance et une certaine responsabilité. C’est particulièrement vrai dans les cas où la sécurité publique ou nationale est menacée ou susceptible de l’être », ajoute-t-il.

Reste que les deux décrets de Trump n’auront pas d’impact sur les lois des États américains qui continueront, elles, de s’appliquer. En Californie, où siègent de nombreuses entreprises d’IA, le législateur local a par exemple adopté une loi sur la transparence de l’IA et sur l’utilisation de deepfakes.

Mais ces deux textes du nouveau président, couplés à l’annonce de Stargate, le projet à 500 milliards de dollars sur l’IA, marquent réellement la fin d’une époque. Le temps où on s’inquiétait encore du « danger imminent de l’IA » qui, en 2023, avait poussé de nombreuses figures – dont Elon Musk – à appeler à un moratoire de l’IA pendant au moins six mois, est bien révolu. Désormais, le message semble se résumer à : plein gaz sur l’IA générative, sans limitation de vitesse (comprenez, sans régulation) ! D’autant que Donald Trump a nommé David Sacks responsable des questions relatives à l’IA (et aux cryptomonnaies). L’investisseur en capital-risque est connu pour être un critique acerbe de toute réglementation de la technologie.

L’Europe s’inquiète

Et ce changement de direction creuse encore davantage les différentes approches entre l’Union européenne et les États-Unis. Alors que Bruxelles a adopté l’année dernière le règlement européen sur l’IA qui impose des normes en matière de sécurité, et qui interdit des utilisations d’IA pour le contrôle social par exemple, Washington semble avoir pour nouveau credo de libérer les géants de l’IA du moindre fardeau…  tout en les finançant massivement. Un deux poids deux mesures qui inquiète de nombreux politiques et experts. 

C’est le cas du député européen Axel Voss (PPE) qui estime, sur LinkedIn, que « les valeurs telles que la démocratie, l’humain et l’État de droit ne joueront plus aucun rôle à l’avenir. Trump est en train de construire la « bombe atomique numérique » qui laisse l’humanité derrière lui – probablement sans même s’en rendre compte ».

Pour l’homme politique allemand, la « stratégie des (27 pays de l’UE NDLR) est encore bloquée au siècle dernier. Nous devons maintenant unir nos forces et fixer des priorités si nous voulons survivre numériquement ». Cet énième appel au « réveil de l’Europe » sera-t-il, cette fois, entendu ?

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.