Meta, la maison mère de WhatsApp, de Facebook et d’Instagram, a-t-elle qualifié à tort « Llama », son outil d’IA générative, « d’open source », pour éviter d’appliquer l’AI Act, le règlement européen sur l’intelligence artificielle ? Une trentaine de députés européens, auteurs d’une lettre adressée à la Commission européenne et repérée par Contexte ce lundi 14 avril, ont répondu par l’affirmative. Meta ne serait pas la seule société concernée.
Dans leur message, envoyé le 10 avril à Henna Virkkunen, la commissaire européenne en charge de la Souveraineté technologique et à deux autres commissaires, dont le Français Stéphane Séjourné (Commissaire européen à la Stratégie industrielle), ces Eurodéputés de centre gauche expliquent que certaines sociétés ont qualifié abusivement leur modèle d’IA « open source ».
Des règles moins strictes pour les IA open source ?
Or cette qualification, qui peut sembler être une querelle de clochers, voire un argument marketing, a des conséquences juridiques. En s’auto-désignant comme open source, les entreprises de l’IA chercheraient en fait à échapper à l’AI Act, estiment les auteurs de la lettre, un document que l’on peut lire sur le compte BlueSky de Birgit Sippel, une Eurodéputée allemande qui fait partie des signataires.
Le règlement européen sur l’IA, entré en vigueur le 1ᵉʳ août 2024, ne définit pas « l’IA open source » (OS). Mais il prévoit que les « systèmes d’IA distribués gratuitement », via certaines licences « libres et ouvertes », n’ont pas à respecter certaines de ses dispositions contraignantes.
Dit autrement, le texte définit des règles moins strictes pour les modèles diffusés en OS, si leur licence d’utilisation permet à « quiconque d’utiliser, d’étudier, de modifier et de partager le système sans restrictions sur l’utilisateur ou le cas d’utilisation ». Il existe néanmoins trois exceptions : si ces outils sont mis sur le marché, s’il s’agit de systèmes d’IA à haut risque, ou de modèles à usage général, rappelle la CNIL, dans sa note d’analyse de juin 2024 sur le sujet.
Les systèmes open source d’IA sont donc en partie exemptés de l’AI Act : mais en partie seulement. C’est à ceux qui les déploient ou les développent ensuite de respecter le règlement. Comme le rappellent les 30 députés européens, l’objectif de ces règles allégées était de permettre à la communauté open source d’avoir davantage de marge de manœuvre. L’idée : leur donner « l’espace nécessaire pour expérimenter et construire des solutions innovantes, qui pourraient être réutilisées dans l’ensemble de l’Union européenne ».
To be or not to be open source
Or, ces derniers mois, « une poignée de très grandes entreprises d’IA prétendent que leur IA est open source, tout en imposant des restrictions d’utilisation destinées à empêcher l’émergence de la concurrence et à menacer la sécurité des utilisateurs », regrettent les signataires du texte. Meta interdit par exemple « l’utilisation de ses modèles Llama à des fins d’entraînement d’autres systèmes d’IA ». Le groupe de Mark Zuckerberg « oblige quiconque développe un système d’IA très performant, basé sur Llama, à négocier une licence spéciale avec lui. En substance, leur IA est libre et ouverte jusqu’à ce qu’une entreprise veuille leur faire concurrence », déplorent-ils.
En juillet 2023, Meta lançait Llama 2, présentant son outil d’IA comme étant « open source ». Depuis, le géant américain n’a publié ni l’ensemble du code source, ni les données d’entraînement utilisées. Sans ces éléments, ces systèmes ne peuvent pas être qualifiés d’open source, estimait déjà en 2023 l’Open Source Initiative (OSI), dans un article de blog.
« Meta confond “open source” et “ressources disponibles pour certains utilisateurs sous certaines conditions”, deux choses très différentes. Nous lui avons demandé de corriger cette erreur », écrivait l’OSI. Contacté par 01net.com, le groupe de Mark Zuckerberg n’avait pas répondu à notre demande de commentaires, à l’heure de la publication de cet article. Mais un an plus tôt, la maison mère de Facebook, Instagram et WhatsApp expliquait, chez nos confrères d’IT for Business, « qu’il ne pouvait exister de définition unique de l’IA open source. La définir est un défi, car les définitions précédentes ne couvrent pas les complexités des modèles d’IA actuels ».
Les Eurodéputés demandent une définition de l’IA open source
Or, c’est justement l’absence de définition de « l’IA open source » qui pose problème, soulignent en substance les Eurodéputés signataires, dont font partie les Français Pierre Jouvet (secrétaire général du PS) et Murielle Laurent (PS). D’un côté, la qualification d’open source permet aux entreprises de ne pas avoir à se conformer à plusieurs dispositions de l’AI Act. De l’autre, les développeurs et les utilisateurs qui souhaitent réutiliser ou travailler sur l’outil d’IA n’ont accès ni à la totalité du code source, ni aux données d’entraînement.
Et sans ces deux éléments, ces utilisateurs ou développeurs, qui doivent, eux, se conformer à l’AI Act, peuvent difficilement le faire. Ils sont en effet censés évaluer les risques potentiels liés à la protection des données, aux biais des outils d’IA et aux droits d’auteur, une évaluation impossible sans accès au code source et aux données d’entraînement, soulignent les 30 Eurodéputés.
Résultat, les parlementaires européens demandent à la Commission de mettre fin à cette situation, en définissant clairement l’IA open source, et précisant de manière explicite « que les systèmes décrits (comme ceux de Meta) ne peuvent pas être considérés comme open source au sens du règlement ». L’argument avait déjà été développé par Stefano Maffulli. Dans un article publié dans Nature, le 27 mars dernier, le directeur général de l’OSI déclarait que : ni les « Llama2 et Llama 3.x (développés par Meta), ni Grok (développé par X, qui appartient à Elon Musk), ni Phi-2 (Microsoft) et ni Mixtral (Mistral AI) ne sont compatibles avec les principes de l’open source ».
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.