Passer au contenu

Google ne s’interdit plus de développer l’IA à des fins militaires

Google a mis à jour mardi 4 février ses principes généraux concernant l’intelligence artificielle, en supprimant son engagement de ne pas appliquer cette technologie à des fins militaires.

C’est un paragraphe qui a été supprimé et qui en dit long du changement de braquet de Google : mardi 4 février, le géant américain a mis à jour ses lignes directrices en matière éthique (intitulées « Nos principes » liés à l’IA), décidées en 2018. Alors que le texte listait encore, quelques jours plus tôt, quatre applications de l’intelligence artificielle (IA) mises de côté pour des raisons éthiques, l’énumération a aujourd’hui disparu.

Depuis 2018, Google s’était engagé à ne pas développer l’IA pour des usages militaires (arme ou surveillance), mais aussi pour des technologies qui « provoquent ou sont susceptibles de provoquer un préjudice global ». Les utilisations qui contreviennent aux principes du droit international et des droits de l’Homme étaient aussi mises de côté.

Ces principes avaient été décidés après une pétition des salariés de l’entreprise qui, en 2018, avaient pris position contre un projet de drones militaires appelé Project Maven – un projet auquel Google avait renoncé.

À lire aussi : Trump supprime les garde-fous sur l’IA : pourquoi on doit s’en inquiéter

À la place, une référence aux principes largement acceptés du droit international et des droits de l’homme

Mais désormais, le refus des applications militaires n’est plus d’actualité. À la place, l’entreprise aura recours à la surveillance humaine et s’assurera que sa technologie est utilisée conformément aux « principes largement acceptés du droit international et des droits de l’homme », précise-t-elle dans un article de blog publié le mardi 4 février. Les principes précisent également que l’entreprise testera sa technologie pour « atténuer les résultats involontaires ou préjudiciables ».

Dans son article de blog, Google explique aussi que le contexte depuis 2018 a changé. La technologie d’IA est désormais davantage utilisée, et les pays démocratiques ne doivent pas renoncer à leur avance technologique en la matière, face aux dictatures. Les entreprises basées dans des pays démocratiques doivent servir les objectifs de sécurité nationale des gouvernements, plaide Google.

« Il y a une compétition mondiale pour le leadership en matière d’IA dans un paysage géopolitique de plus en plus complexe. Nous pensons que les démocraties devraient prendre la tête du développement de l’IA, guidées par des valeurs fondamentales telles que la liberté, l’égalité et le respect des droits de l’homme. (…) Et nous pensons que les entreprises, les gouvernements et les organisations qui partagent ces valeurs devraient travailler ensemble pour créer l’IA ».

La majorité des entreprises de l’IA américaines travaille déjà pour le Pentagone

L’annonce, qui intervient après plusieurs ralliements des géants de la tech à Donald Trump, constitue un véritable revirement de la part de Google. D’autant que son directeur de l’IA, Demis Hassabis, avait en 2015 expliqué que la technologie de DeepMind, la start-up qu’il avait cofondée et qui a ensuite été rachetée par Google, ne serait jamais utilisée à des fins militaires.

Pour autant, Google ne fait ici que suivre un mouvement général, selon lequel la majorité des géants de l’IA développe déjà des projets pour le Pentagone, souligne le Washington Post : c’est le cas d’OpenAI (ChatGPT), d’Anthropic (Claude), de Microsoft et d’Amazon. Google, dont le PDG Sundar Pichai a fait un don d’un million de dollars pour la cérémonie d’investiture de Donald Trump, suit aussi la nouvelle approche du président. Le nouveau locataire de la Maison Blanche a supprimé fin janvier les quelques gardes-fous de l’IA qui avaient été mis en place par son prédécesseur, Joe Biden.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Stéphanie Bascou