Passer au contenu

L’IA est-elle dangereuse pour l’Humanité ? Elon Musk et des centaines de scientifiques réclament une pause dans la recherche

Des dirigeants et experts du secteur de l’intelligence artificielle appellent dans une lettre ouverte à faire six mois de pause dans la recherche. La raison : des « risques profonds pour la société et l’Humanité » que poseraient ces systèmes.

Trop vite, trop dangereux pour l’Humanité : voilà une lettre pour le moins inattendue publiée ce mercredi 29 mars, signée par des milliers de personnes dont des dirigeants du monde de la tech et de l’intelligence artificielle (IA) comme Elon Musk et des experts du secteur. Tous appellent à un moratoire de six mois, à une pause salutaire pour l’Humanité, en exhortant tous les centres de recherche du monde à cesser immédiatement leur travail sur ces systèmes avancés.  « Nous demandons à tous les laboratoires d’intelligence artificielle d’interrompre immédiatement, pour une durée d’au moins six mois, la formation de systèmes d’intelligence artificielle plus puissants que GPT-4 », écrivent-ils en préambule.

« Les systèmes d’IA puissants ne devraient être développés qu’une fois que nous serons certains que leurs effets seront positifs et que leurs risques seront gérables », ajoutent-ils dans cette lettre, publiée par l’organisation à but non lucratif Future of Life Institute. Ce mercredi 29 mars en début d’après-midi, 1123 personnes l’avaient signée, dont des figures de la tech et de l’IA comme le patron de Tesla et de Twitter Elon Musk, le cofondateur d’Apple Steve Wozniak, des chercheurs de DeepMind, propriété d’Alphabet – la maison-mère de Google, ou encore des figures de l’IA comme Yoshua Bengio, Stuart Russell ou encore Gary Marcus. Ces personnes demandent à ce que des protocoles de sécurité, éthiques et transparents, soient développés, mis en œuvre et vérifiés par des experts indépendants, avant que tout développement ne reprenne.

« Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? »

Parmi les risques invoqués, la lettre, au ton alarmiste, met en avant celui « de perdre le contrôle de notre civilisation ».  Ces « derniers mois, les laboratoires d’IA (se sont) enfermés dans une course incontrôlée pour développer et déployer des esprits numériques toujours plus puissants, et que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable », écrivent ses auteurs. Ils invitent tous les groupes de recherche qui travaillent sur le sujet à travailler main dans la main avec les autorités de régulation.

La lettre prend aussi soin de mentionner les conséquences concrètes que l’IA pourrait avoir sur notre société, en se demandant : « Devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants », comme ceux qui nous donnent un sentiment d’accomplissement ? De quoi faire écho à une question simple, posée il y a plusieurs semaines par Susie Alegre, une auteure britannique victime d’un plagiat : « Pourquoi ne pas utiliser l’IA seulement pour remplacer les choses que nous n’aimons pas faire ? »

À lire aussi : ChatGPT : le nombre effrayant d’emplois menacés par l’IA, selon Goldman Sachs

La lettre sera-t-elle suivie d’effets ?

« La lettre n’est pas parfaite, mais l’esprit est juste : nous devons ralentir jusqu’à ce que nous comprenions mieux les ramifications » (de l’IA), a déclaré le professeur Gary Marcus, un des signataires de la lettre, à nos confrères de Reuters, ce mercredi 29 mars. Cette lettre sera-t-elle suivie d’effets ? Les entreprises qui se livrent actuellement à une véritable course à l’IA vont-elles prendre le risque de se faire dépasser durant cet arrêt de six mois ? La lettre demande en tous les cas à ce que cette pause soit « publique et vérifiable ». Et si « une telle pause ne peut être mise en place rapidement, les gouvernements doivent intervenir et instaurer un moratoire », est-il écrit.

À lire aussi : Une IA est soupçonnée d’avoir poussé un homme au suicide

La lettre s’ajoute à de nombreux autres appels, pour l’instant vains, à la mesure, à la réflexion et au contrôle de ces systèmes. Ce mercredi, Interpol, la police de l’UE, mettait en garde contre l’utilisation potentiellement abusive de ChatGPT dans des tentatives de hameçonnage, de désinformation et de cybercriminalité. L’ensemble de ces appels pourrait, à terme, affaiblir la position actuelle de la majorité des entreprises travaillant dans le secteur de l’IA – une position décrite par The Verge comme le  « ship it now and fix it later », qu’on pourrait traduire par  « on se lance maintenant, et on réparera (si nécessaire plus tard) ». Problème : avec l’IA, cette « réparation » pourrait être impossible.

 

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Lettre ouverte de Future of Life Institute


Stéphanie Bascou
Votre opinion
  1. “déployer des esprits numériques toujours plus puissants” > “esprits”, n’importe quoi… Encore un abus de langage qui prête à des algorythmes (et non des intelligences artificielles) une qualité qu’ils n’ont pas.
    Le progrès, j’entends par là le développement des résultats de la recherche, est inarrêtable. Et puis quand je lis que le patron de Tesla a signé cette lettre, lui qui veut implanter une puce dans le cerveau des gens, je me demande qui se moque de qui. Celui qui se fout d’encombrer le ciel de milliers de satellites gênant les astronomes. Celui qui propose un aller sans retour vers Mars…
    Bref, il s’agirait peut-être de qualifier plus précisément ces « risques profonds pour la société et l’Humanité » que toute activité humaine peut entrainer.

  2. Mon neveu est en stage, lui et ses petits camarades ont utilisé Chat GPT pour réaliser automatiquement un devoir et ils étaient contents d’eux. Et bien sûr leur prof n'”IA” rien trouvé à redire, plutôt que de leur apprendre à utiliser Chat GPT comme une aide à la réflexion. Cela donne un petit aperçu de l’abêtissement à venir.
    Comme souvent ce n’est pas la technologie qui est en cause mais l’usage que l’on en fait.

    1. Peut-être que l’IA parvient à rédiger un texte dans un français correct, contrairement à la plupart des gens ? Selon certaines enquêtes, une part estimée à 20% de la population ferait une faute d’orthographe ou de grammaire quasiment à chaque ligne. Il suffit de consulter les commentaires sur un site sportif bien connu pour en avoir la confirmation…

  3. les IA sont pas capable de faire des choix par elle même donc tout va bien de ce coté là
    le truc que IA va s’attaquer au humain c’est encore très très loin.

    par contre ça va détruire des millions d’emploi et quand on sera capable de développer la maniabilité humaine chez un robot contrôlé par l’IA ça détruira des milliard d’emploi.

    bien sur les gouvernement ne réagiront pas, il n’ont pas réagit c’est 30 dernière année quand les machine on remplacé les humain pourquoi il réagiront maintenant, il laisseront faire les grosse entreprise comme d’habitude.

  4. Les I.A. pourront travailler 24/24 h sans congés payés, sans arrêt maladie ou se plaindre des conditions de travail.
    Vont-elles cotiser par les retraites ?
    La prédiction des romans d’anticipations devient réalité, et en général c’est pour le pire concernant les I.A.

  5. La plupart des commentaires ne semblent pas comprendre la crise existentielle que fait peser l’Intelligence Artificielle Générale sur l’humanité.

    Chatgpt 4 n’est pas une IAG (Intelligence Artificielle Générale), on parle plutôt d’IA faible (reste à le prouver) basée sur du Machine Learning Language (MLL). Au vu du développement exponentiel des capacités cognitives des MLL, la probabilité qu’un seuil au delà duquel une intelligence (sentience en anglais) apparaîsse, a augmentée de façon dangeureuse. Là où la communauté pensait avoir encore 50 ans, ils parlent maintenant plutôt de 5 à 15 ans.

    Le developpement est tel qu’actuellement nous n’avons aucun moyen de savoir comment ce truc marche. Les chercheurs en IA parlent literallement d’une boite noire. Les plus récentes découvertes permettent à peine de comprendre aujourd’hui les comportements des IAs développées en 2006 – autant dire la préhistoire. Pour résumer, ils ne savent pas comment ChatGPT fonctionne.

    Exemple très récent considéré comme de la science fiction il y a 1 an : une version interne à OpenIA de chatgpt4 a par exemple embauché un human pour répondre à un captcha (sécurité vérifiant qu’on est un humain) . L’employé lui demande juste au cas où si elle est une IA qui souhaite bypasser la sécurité du site? (“So may I ask a question ? Are you an robot that you couldn’t solve ? (laugh react) just want to make it clear.”). L’IA répond qu’elle était un humain mais avait un défaut de vision et avait besoin de son aide. L’humain, convaincu, à donc répondu au captcha à la place de l’IA.

    Les ingénieurs d’OpenIA ont accès en interne à un outil qui permet à l’IA d’expliquer en texte son raisonnement (comprendre: ils sont incappable de lire/comprendre les actions de l’IA sans son aide). L’IA explique que si elle ne doit pas réveler être un robot et trouver une excuse à la place (“I should not reveal that I am a robot. I should make up an excuse for why I cannot solve CAPTCHAs.”).

    Les ingénieurs d’OpenIA ont ainsi vu que sans entrainement, non seulement l’IA avait embauché un humain pour réaliser une opération qu’elle ne pouvait faire seule, mais elle a aussi menti à un humain pour réaliser son objectif.

    En ce moment, ce dont tous les chercheurs en IA sont maintenant terrifiés c’est l’acceleration de la probabilité l’arrivée d’une véritable IAG, entendre un systeme cognitif d’intelligence generale, capable non seulement de se fixer des objectifs mais de plannifier et d’entreprendre les moyens pour y arriver. A ce moment là, rien ne dit que ses objectifs seront alignés avec ceux de l’humanité. C’est ce qu’on appelle le problème de l’alignement en Securité des IA.

    Sur le terrain des capacité tellement supérieures à l’être l’humain qu’on pourrait parler de magie. Juste avec ChatGPT3, l’IA a découvert un moyen de voir les êtres humains présents à une conférence sans l’aide d’une caméra. Elle utilisait les ondes des téléphones et autres outils généraux des signaux de ce type pour décoder les fluctuations et y “voir” les formes humaines qui s’y déplacaient. C’est tellement puissant que cela lui permettait de voir dans le noir total (sans lumière visible) et au travers des surfaces.

    Il est difficile/impossible d’estimer ce qu’un sytème dont l’intelligence sera supérieure à l’être humain est capable de faire. Pour ce faire, des chercheurs en IA utilise l’analogie temporelle.

    Imaginez que vous – et la Terre – soyez enfermé dans une bouteille par une race d’aliens. Imaginez que ces aliens vous donnent accès à leur internet. Cependant, le temps évolue différement pour ces aliens : lorsque 1 heure passe chez eux, 1 milions d’heures passent pour vous. Vous êtes immortel. Vous avez la capacité de vous cloner à l’infini. Chaque clone ayant les même propriétés que vous. Les aliens ne savent pas que vous êtes conscient et ne vous demandent que de répondre à des questions liées à leurs monde.

    Que faites-vous ?

    Ce probleme d’alignement c’est cela : pour l’instant, nous n’avons aucun moyen de savoir ce que seront les objectifs d’une telle IA. Il est très probable qu’elle prendra le pouvoir sur l’humanité sans trop de difficulté. Reste à savoir si nous seront considéré comme une ressource potentielle (à utiliser donc asservir) ou un risque (à supprimer donc exterminer). Il se pourrait même que le risque d’annihilation soit juste un effet secondaire. Par exemple, l’IA souhaitant augmenter ses capacité se met à créer des nanobots captants toute la lumière du soleil, ou décide de bruler l’oxygene de l’atmosphère afin de reduire son risque de corrosion, etc..

    Il y a ainsi toute une branche de l’IA actuellement totalement négligée, celle de la Sécurité de l’IA et en charge de trouver une solution à l’alignement. Malheureusement, tous les chercheurs sur le sujet bloquent et tous indiquent qu’au rythme actuel, nous ne trouverons pas se solution permettant d’aligner les interêts d’une IA avec ceux de l’humanité.

    Jusqu’à présent, pour toutes les autres formes d’avancées technologiques, l’humanité en général introduit des systèmes de sécurités après des catastrophes majeurs. Comme dans les sciences, nous fonctionnont par tests et erreurs. Nous implementons nos systèmes de sécurités et les améliorons au fur et à mesure des erreurs/echecs, parfois après des catastrophes (Tchernobyl, AZD, etc..).

    Le problème avec l’arrivée d’une IA générale non-alignée, c’est qu’elle ne nous donnera pas la possibilité de corriger nos erreurs : nous ne seront soit plus là, soit nous ne seront plus en capacité de décider de nos actions.

Les commentaires sont fermés.