Passer au contenu

IA et extinction de l’humanité : OpenAI et Google Deepmind tirent la sonnette d’alarme

L’intelligence artificielle risque de causer l’extinction de l’humanité. C’est ce qu’affirme une lettre signée par plus de 350 experts de l’IA, dont les dirigeants d’OpenAI, Google Deepmind ou Anthropic. Au lieu d’un moratoire, ils plaident pour des mesures d’atténuation, telles que la régulation…

L’intelligence artificielle continue de susciter les inquiétudes des experts. Ce mardi 30 mai 2023, Center for AI Safety, une organisation à but non lucratif basée aux États-Unis, a publié une lettre réclamant des mesures pour atténuer les risques posés par l’IA.

L’IA, une priorité

D’après l’organisme, cette technologie présente un « risque d’extinction » pour l’humanité. De facto, Center for AI considère qu’il est impératif de faire de l’IA « une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire ». En miroir des maladies ou d’un conflit atomique, l’IA serait donc susceptible de mettre fin à la race humaine, estime la déclaration.

« Il peut être difficile d’exprimer des inquiétudes au sujet de certains des risques les plus graves de l’IA avancée », déclare Center for AI Safety, soulignant que sa déclaration vise à « surmonter cet obstacle et à ouvrir la discussion ».

La lettre a été signée par plusieurs personnalités phares de l’industrie, à commencer par Sam Altman, PDG et cofondateur d’OpenAI, la start-up derrière l’incontournable ChatGPT, et Demis Hassabis, le patron de Deepmind, la filiale consacrée à l’IA de Google. Citons aussi Dario Amodei, le patron d’Anthropic, la société qui développe le chatbot Claude, ainsi que Geoffrey Hinton et Yoshua Bengio, deux chercheurs considérés comme les parrains de l’IA moderne grâce à leurs travaux sur l’apprentissage profond et les réseaux neuronaux.

Au total, plus de 350 cadres, chercheurs et ingénieurs spécialisés dans l’IA ont signé le communiqué. Interrogé par le New York Times, Dan Hendrycks, le directeur général du Center for AI Safety, estime que la lettre permet à certains experts et dirigeants d’exprimer publiquement leurs inquiétudes. Très brève, la déclaration cherche surtout à rassembler le plus de personnes que possible.

« Il y a une fausse idée très courante, même dans la communauté de l’IA, selon laquelle il n’y a qu’une poignée de “doomers (NDLR : une personne qui s’inquiète exagérément de la fin de l’humanité) » à avoir des appréhensions, explique Dan Hendrycks.

À lire aussi : L’IA est capable de vous manipuler, cette étude le prouve

Moratoire contre régulation

Ce n’est pas la première initiative regroupant les experts inquiets au sujet de l’intelligence artificielle. En mars, des milliers de personnes, dont des figures phares du monde de la tech, comme Elon Musk ou Steve Wozniak, ont appelé à un moratoire dans une lettre ouverte. Celle-ci demandait à tous les centres de recherche dans le monde de suspendre les recherches concernant des « systèmes d’intelligence artificielle plus puissants que GPT-4 », le dernier modèle de langage derrière ChatGPT.

Plus modérée, la lettre publiée par Center for AI Safety plaide davantage pour des mesures d’atténuation. Pour Sam Altman, l’évolution de l’IA passe d’ailleurs par la régulation. Devant le Sénat des États-Unis, il a évoqué la création d’une agence fédérale entièrement dédiée à l’encadrement de l’IA. Celle-ci serait chargée de délivrer des licences aux entreprises qui mettent au point des modèles linguistiques. Altman s’est également entretenu avec Joe Biden, le président des États-Unis.

Par la suite, le patron d’OpenAI s’est envolé vers l’Europe pour discuter avec les gouvernements. De passage en France, le dirigeant d’OpenAI a d’ailleurs rencontré Emmanuel Macron la semaine dernière. Face au président français, Sam Altman a défendu une approche nuancée, qui atténue les risques sans étouffer l’innovation.

Comme le rappelle l’entrepreneur américain, l’IA peut avoir un impact positif sur l’humanité. En miroir de Sam Altman, Bill Gates, l’illustre cofondateur de Microsoft, estime que l’intelligence artificielle « peut être utilisée à des fins bénéfiques », notamment pour lutter contre le réchauffement climatique, réduire les inégalités et améliorer l’éducation des populations les plus défavorisées.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Center for AI Safety


Florian Bayard
Votre opinion
  1. a t’on besoin de l’IA pour comprendre que nous sommes condamnés a disparaitre
    franchement je ne crois pas !!!! c’est juste la façon dont ça va se produire qui est inconnue

  2. A mon avis M. Macron doit déjà se servir de l’ I.A. pour prendre ses décisions.
    C’est pourquoi il change d’avis tous les matins, à moins qu’il accompagne son petit déjeuner d’un verre de calvados.

Les commentaires sont fermés.