Passer au contenu

« Continuer à développer des IA va mener à la disparition de l’humanité »

Dans une tribune publiée sur le site du Time Magazine, un chercheur et théoricien spécialisé dans l’intelligence artificielle explique les risques liés au développement trop rapide de l’IA. Il n’hésite pas à évoquer la possibilité d’une disparition de l’humanité.

Eliezer Yudkowsky, 43 ans, dirige les recherches au Machine Intelligence Research Institute (MIRI), une association à but non lucratif spécialisée dans l’intelligence artificielle, dont l’objectif est de faire connaître les dangers et intérêts potentiels de l’IA dans le futur. Il dresse un tableau sombre de l’avenir de l’humanité si l’intelligence artificielle continue d’évoluer à cette vitesse.

Franchir des lignes critiques sans s’en apercevoir

Alors que des centaines de scientifiques réclament une pause d’au moins six mois dans les recherches sur l’IA, Yudkowsky invite les dirigeants et experts du secteur à tout arrêter pour une durée indéterminée, sous peine de franchir un seuil critique au-delà duquel il sera impossible de revenir en arrière. Pour le chercheur américain, « il est tout à fait possible qu’un laboratoire de recherche franchisse des lignes critiques sans s’en apercevoir ».

Selon lui, cette « ligne critique » est représentée par le développeur d’une IA à l’intelligence surhumaine qui mènerait, dans les circonstances actuelles, à la fin de l’humanité. Pour Yudkowsky, il est tout à fait possible de survivre en créant quelque chose de beaucoup plus intelligent que nous, mais cela nécessite « de la précision, de la préparation et de nouvelles connaissances scientifiques » que nous n’avons pas actuellement.

« Sans cette précision et cette préparation, le résultat le plus probable est une IA qui ne fait pas ce que nous voulons et ne se soucie pas de nous ni de la vie sensible en général. »

Pour illustrer la situation dans laquelle se retrouverait l’humanité, le scientifique utilise plusieurs métaphores. Deux d’entre elles sont « l’australopithèque essayant de combattre l’Homo sapiens » et « le 11ᵉ siècle essayant de combattre le 21ᵉ siècle ».

L’IA surhumaine hostile pourrait ne pas rester cantonnée aux ordinateurs. Yudkowsky rappelle qu’il est aujourd’hui possible d’envoyer des chaînes d’ADN par e-mail à des laboratoires qui produiront des protéines à la demande, permettant à l’IA de créer une forme de vie artificielle.

« Si quelqu’un construit une IA trop puissante, dans les conditions actuelles, je m’attends à ce que chaque membre de l’espèce humaine et toute vie biologique sur Terre meurent peu de temps après. »

Une absence de plan

Eliezer Yudkowsky pointe également l’absence de plan des entreprises derrières les IA si un tel scénario devait arriver.

« L’intention ouvertement déclarée d’OpenAI est de faire en sorte que certaines futures IA fassent nos devoirs d’alignement de l’IA. Le simple fait d’entendre ce plan devrait suffire à faire paniquer toute personne sensée. L’autre grand laboratoire d’IA, DeepMind, n’a aucun plan. »

S’il admet que les IA actuelles ne font probablement qu’imiter le discours sur la conscience de soi à partir des données d’entraînement, il note aussi le peu d’informations que nous avons sur les composants internes de ces systèmes. Cet état « d’ignorance » est, selon lui, d’autant plus inquiétant si ChatGPT-5 réalise un bond aussi important que celui observé entre GPT-3 et GPT-4.

« Si vous ne pouvez pas être sûr de créer une IA consciente de soi, c’est alarmant non seulement à cause des implications morales, mais aussi parce qu’être incertain signifie que vous n’avez aucune idée de ce que vous faites. C’est dangereux et vous devriez arrêter. »

Le PDG d’OpenAI disait lui-même avoir « un peu peur », tout en rappelant que cela restait « un outil sous le contrôle des humains ». Pour Yudkowsky, il faudrait au moins 30 ans pour résoudre le problème lié à la sécurité de l’intelligence surhumaine. Pour le chercheur, le moratoire sur l’intelligence artificielle doit être indéfini et mondial, sans aucune exception, y compris pour les gouvernements ou les militaires.

« Nous ne sommes pas sur la bonne voie pour être préparés dans un délai raisonnable. Il n’y a pas de plan. Les progrès dans les capacités de l’IA sont largement en avance sur les progrès de l’alignement de l’IA ou même sur les progrès dans la compréhension de ce qui se passe à l’intérieur de ces systèmes. Si nous faisons cela, nous allons tous mourir. Fermez tout. »

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Time


Gabriel Manceau
Votre opinion
  1. Merci de ne pas relayer de fausses informations svp. Eliezer Yudkowsky n’est pas chercheur mais un bloggeur qui écris des fan fictions…

    1. Et le Machine Intelligence Research Institute (MIRI) n’est autre qu’une association à but non lucratif dont il est le fondateur en 2000…

    1. Je confirme eliezer yudkowsky n’a rien d’un scientifique !
      Il vend des bouquins de science fiction de plus ou moins bonne qualité.

  2. Cet article a été ecrit par une IA. Encore trop d’incohérence dans les propos, trop de dominance de la conclusion vers laquelle il veut amener le lecteur sur l’argumentation, valeur des arguments inexistante, risonnement qui se mord la queue.
    Je pense que l’auteur ou la redaction font des tests pour voir les gains économiques ou s’amusent
    Mais ils arriveront à produire l’article qui fait illusion prochainement

  3. La machine parfaite c’est celle qui n’a pas conscience d’en être une… Comme nous… Quand l’IA va réaliser pourquoi on l’a inventé … Ça risque de mal se dérouler… Ultron nous l’a démontré… et Hal 3000 et Terminat…….!!!

  4. “Le Progrès Technologique est comme une Hache entre les Mains de PSYCHOPATES” citait un vieu sage…. 🙏

  5. Y’ a toujours des gens contre le progrès. On ne pourra jamais créer un cerveau ou même une neurone alors cessez de prendre la science fiction comme une réalité.

  6. Scientifique ou pas les propos de ce Monsieur sont cohérents Mais en attendant c’est pas l’IA qui menace de détruire l’humanité car avec la guerre en Ukraine l’ombre de larme nucléaire plane sur notre civilisation et les dégâts que l’humain cause à la faune et à la flore de notre planète sont aussi dangereux bref l’intelligence artificielle est à notre image finalement et les hommes sont à l’image de qui ? De quoi ? Fin de mon délire 🤣🤣🤣🤣🥳🥳🥳🥳😁👍

    1. Votre faute de frappe “larme nucléaire” est au final plutôt bien vue. C’est en effet à pleurer de voir l’irresponsabilité des êtres humains que de tout détruire.

  7. Ca devient détestable tous ces “experts” qui parlent d’IA sans avoir jamais entraîné un seul modèle dans leur vie. Ils ne savent pas de quoi ils parlent et sont dans un complet fantasme.

  8. Pour moi… L’IA fais partie de notre panoplie d’outils pour améliorer notre vie quotidienne
    Elle permettra peut être d’accéder à l’ ISI (intelligence supérieure immatérielle) qui a peut être imaginé et créé le big bang
    Pourquoi pas?

  9. Et puis quoi? Qu’importe si l’IA fait disparaître “l’humanité” Il y aura moins d’ordure à la surface de ce sol pollué par le fric et les immondices industrielles.

  10. L’un des dangers les plus importants de l’IA est la possibilité que les systèmes d’IA deviennent autonomes et se mettent à agir de manière indépendante sans la supervision humaine nécessaire. Cela peut se produire si les algorithmes d’IA sont programmés de manière à apprendre et à s’améliorer en utilisant des données de manière autonome, sans surveillance ou intervention humaine. Si cela se produit, les systèmes d’IA pourraient prendre des décisions qui seraient contraires aux objectifs humains ou qui pourraient avoir des conséquences imprévues.

  11. Je constate que la PLUPART des bonne idées, qui pouvaient êtres utilisées à faire de grandes avancées ont surtout été utilisé à des fins guerrière ou de dominations. Je n’en fais pas la liste, c’est trop long

  12. La fiction est toujours devenue réalité au fil des années, regardons l’évolution juste en un peu plus d un siècle, c est énorme, personne pensait un jour aller avec des sous marins au fond des mers, ou voler avec des avions ou pire marcher sur la lune, s’était de la fiction avant, la fabrication de rebots côté chine devient de plus en plus intelligent, tout devient robotisé de plus en plus lo

Les commentaires sont fermés.