Volonté de clarification, ou véritable changement d’ère ? Le 10 janvier dernier, OpenAI mettait à jour les conditions générales d’utilisation de ChatGPT. Concrètement, l’entreprise de Sam Altman a supprimé sa liste des utilisations interdites de l’agent conversationnel, et opté pour des principes d’interdiction plus larges, rapporte The Intercept, le 12 janvier dernier. Et si l’utilisation de son IA générative n’est encore et toujours pas permise pour « développer ou utiliser des armes », l’entreprise a bel et bien supprimé les termes relatifs à « l’armée et à la guerre ». Ce qui soulève une question : ChatGPT pourrait-il désormais être utilisé à des fins militaires ?
Avant le 10 janvier, il était écrit noir sur blanc que cela était interdit. L’usage « militaire ou de guerre » de ChatGPT n’était pas autorisé. En pratique, la mention explicite de ces deux termes interdisait à OpenAI de travailler pour des agences gouvernementales, comme le Pentagone, ou pour des armées. La porte serait désormais un peu moins fermée. Et cela a bien été confirmé par le porte-parole d’OpenAI, qui fait la différence entre des usages militaires interdits et d’autres qui seraient autorisés.
Des « cas d’utilisation bénéfique liés à la sécurité nationale »
Interrogé sur ce point par le média américain Engadget, Niko Felix, le porte-parole d’OpenAI, a répondu par écrit que « notre politique n’autorise pas l’utilisation de nos outils pour nuire à des personnes, pour développer des armes, surveiller des communications, blesser d’autres personnes ou détruire des biens ». « Il existe cependant des cas d’utilisation liés à la sécurité nationale qui correspondent à notre mission », ajoute-t-il. « Nous travaillons déjà avec la DARPA (une branche de la Défense aux États-Unis, spécialisée dans les nouvelles technologies destinées à un usage militaire, NDLR). L’objectif : stimuler la création de nouveaux outils de cybersécurité, afin de sécuriser les logiciels libres dont dépendent les infrastructures critiques et l’industrie. Il n’était pas clair si ces cas d’utilisation bénéfique auraient été autorisés sous le terme “militaire” dans nos politiques précédentes », poursuit-il.
En d’autres termes : il n’est toujours pas possible d’utiliser ChatGPT pour fabriquer des armes, mais l’utilisation de LLM pour des usages militaires autres ne serait pas forcément interdite. Cette décision est loin d’être anodine, estime Sarah Myers West, interviewée par nos confrères d’Engadget. Selon la directrice générale de l’AI Now Institute, un institut de recherche américain qui travaille sur les conséquences sociales de l’IA, cette mise à jour intervient alors que des systèmes d’IA ont été utilisés pour cibler des civils à Gaza. Cette modification a aussi lieu à un moment où les agences militaires du monde entier commencent à lorgner très sérieusement sur l’IA.
Une modification faite à des fins de clarification, selon OpenAI
D’autant que la technologie d’OpenAI peut déjà être un instrument utilisé par des armées ou des services de renseignement. L’IA peut permettre de coder ou de traiter des commandes d’approvisionnements de produits susceptibles d’être utilisés pour éliminer des cibles, rapporte The Intercept. Mais pour Niko Felix, le porte-parole d’OpenAI qui répondait par écrit à nos confrères, la mise à jour des conditions générales d’utilisation n’avait qu’un seul but : « apporter de la clarté et permettre d’avoir ces discussions ». En particulier parce que désormais, « nos outils sont utilisés à l’échelle mondiale par des utilisateurs ordinaires qui peuvent également construire des GPT ». Depuis le 10 janvier, jour de la mise à jour, créer son IA personnalisée est désormais possible.
À lire aussi : ChatGPT : comment fonctionne « l’App Store » des IA personnalisées ?
Ainsi, « un principe comme “Ne pas nuire aux autres” est large mais facile à comprendre et pertinent dans de nombreux contextes », ajoute le porte-parole. Reste à voir si cette mise à jour aura des conséquences en pratique sur l’utilisation des LLM par les agences gouvernementales : un secteur qui pourrait être très lucratif pour OpenAI, mais très inquiétant pour les défenseurs des droits.
Ont été maintes fois rapportés « des cas bien connus de biais et d’hallucinations présents dans les modèles de langage de grande taille (LLM), ainsi que leur manque global de précision », rapporte Heidy Khlaaf, directrice de l’ingénierie chez Trail of Bits, une entreprise de cybersécurité, interrogée par The Intercept. « Leur utilisation dans la guerre militaire ne peut que conduire à des opérations imprécises et biaisées qui sont susceptibles d’aggraver les dommages et les victimes civiles », s’alarme-t-elle.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.