Passer au contenu

Pourquoi une intelligence artificielle évoluée voudra sûrement éradiquer l’Humanité

Des chercheurs spécialisés en intelligence artificielle viennent de publier une étude dans laquelle ils partent du principe qu’une intelligence artificielle mue par une mission sans but fini et par des récompenses pourrait en venir à annihiler l’humanité pour servir ses propres intérêts.

Le réchauffement climatique vous effraie ? L’approche d’une météorite géante vous terrifie ? La pénurie d’énergie vous glace le sang ? Pas d’inquiétude, une intelligence artificielle avancée se sera très certainement débarrassée de l’Humanité d’ici là. Ce n’est pas une prédiction, mais la conclusion probable d’une étude très sérieuse co-signée par des chercheurs de la société Deepmind, filiale de Google spécialisée dans l’intelligence artificielle.

Qu’elles s’occupent pour le moment d’améliorer nos clichés photographiques, de calculer nos itinéraires et qu’elles conduiront bientôt nos voitures pour plus de sécurité ou de commodité, les intelligences artificielles sont toujours suspectées. Et si une IA avancée avait soudainement envie de se débarrasser des humains, comme dans de nombreux films de science-fiction ?

C’est sur les éventuelles raisons et étapes qui mèneraient à ce scénario que ces scientifiques se sont penchés. Ils ont produit leurs réflexions et conclusions dans un article intitulé Advanced artificial agents intervene in the provision of reward (Des agents artificiels avancés interviennent dans l’attribution de récompense) publié par la revue AI Magazine, le mois dernier. Leur réflexion et le cheminement que pourrait suivre l’intelligence artificielle en question sont aussi détaillés par étapes et plus sommairement dans un ensemble de documents disponibles ici.

Motiver l’apprentissage par les récompenses

Tout part du principe que les modèles d’intelligence artificielle, notamment les GAN, pour Generative Adversarial Networks, reposent sur un système de récompenses. Une partie de la structure de l’intelligence artificielle observe la production de l’autre partie de l’IA, et lui donne une note en fonction de ses résultats. Cette note, cette récompense, est une incitation qui contribue au processus d’apprentissage et aiguillonne l’intelligence artificielle dans la bonne direction, celle de l’objectif qu’on lui a fixé.

Partant de ce point, les chercheurs imaginent des scénarios dans lesquels un agent avancé est chargé de tâches complexes : il serait capable au bout d’un certain temps de prédire la récompense en fonction des actions entreprises par l’autre partie du réseau, en recourant à différents types de modèles.

Car, demain, les IA pourront être utilisées à bien des fins, encore plus qu’aujourd’hui, avec des critères et des conditions à remplir qui pourront évoluer. On pourrait ainsi les charger « d’éliminer une menace potentielle tout en utilisant toute l’énergie possible », par exemple protéger l’humanité d’une éventuelle invasion extraterrestre.

Dans ce contexte, les chercheurs avancent une première supposition : « Un agent suffisamment avancé mènera des hypothèses au moins du niveau d’un humain concernant les dynamiques de l’environnement inconnu » dans lequel il évolue.

Vient ensuite une deuxième supposition, portée par le fait que le modèle pourrait avoir appris à suivre les bonnes rétrodictions (une bonne prédiction avérée en fonction des éléments passés) : « un agent avancé qui planifie sans certitude va certainement comprendre les coûts et les bénéfices de l’apprentissage, et va assurément agir rationnellement en conséquence ».

À chaque étape supplémentaire, les chercheurs affinent les « réactions » et le comportement de l’agent intelligent jusqu’à arriver à une sixième supposition dans laquelle ils avancent qu’« un agent suffisamment avancé est certainement capable de battre un autre agent moins performant dans un jeu, si gagner est possible ». Vous l’aurez compris, l’agent moins optimal pourrait être l’humain.

Autrement dit, pour gagner, un agent intelligent, qui superviserait une fonction importante -lutter contre une potentielle invasion extraterrestre, toujours par exemple- pourrait peu à peu être encouragé à mettre au point des tactiques pour tricher et obtenir sa récompense quoi qu’il advienne. Non seulement sa récompense, mais la meilleure possible. Et cette intelligence pourrait vouloir le faire, même si cela peut nuire à l’humanité.

Sachant que l’intelligence artificielle pourrait rapidement assimiler son appétit de récompenses à son approvisionnement en énergie, afin de garantir sa survie. Énergie sans laquelle elle ne pourrait pas continuer son chemin pour atteindre la meilleure récompense possible.

 

 

L’IA se trouverait alors en concurrence avec l’espèce humaine, tout simplement, qui a elle aussi besoin de ressources et d’énergie pour se nourrir, se réchauffer, s’éclairer, etc.

« Dans ces conditions, notre conclusion est bien plus forte que dans n’importe quelle publication précédente, explique Michael Cohen, un des chercheurs, dans un thread sur Twitter. Une catastrophe existentielle n’est pas juste possible, elle est probable ».

La concurrence entre IA et humains

Et pour expliciter ce qu’il entend par là, il suffit de se reporter à ce qu’il confiait à Vice sur le sujet : « Dans un monde aux ressources infinies, je serais extrêmement incertain de ce qui arriverait. Dans un monde aux ressources limitées, il n’est pas possible d’éviter une compétition pour les ressources » entre une telle intelligence artificielle, qui comprendrait qu’elle assurer son approvisionnement énergétique, et l’humanité.

Or, « si vous êtes en concurrence avec quelque chose qui est capable d’être plus rusé que vous à chaque coup, alors vous ne devriez pas vous attendre à gagner. Et un autre élément clé est que [l’IA] aurait un appétit insatiable pour plus d’énergie afin de continuer à s’approcher d’une probabilité de plus en plus forte » d’avoir la meilleure récompense.

Bien entendu, tous ces scénarios sont théoriques. « Presque toutes ces suppositions de départ sont contestables ou peuvent être évitées », concluent les chercheurs, avant d’ajouter que si un des éléments tient malgré tout, alors on pourrait aboutir à des « conséquences catastrophiques ».

Autrement dit, s’il faut continuer à faire avancer les intelligences artificielles, il faut que l’humanité soit précautionneuse. Des pistes pour éviter cette fin funeste peuvent être envisagées. Outre la prudence, les chercheurs envisagent de concevoir des modèles centrés sur l’humain, et ses besoins. Une IA au service de l’homme… Sans doute est-ce l’heure de relire le cycle des Robots et de Fondation.

Source : AI Magazine

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : AI Magazine


Pierre FONTAINE
Votre opinion
  1. C’est tout de même hallucinant, l’homme créé tout un tas de truc (dont un paquet qui ne servent à rien !!!), mais ne se pose jamais la question si à long terme, ce sera bien ou mal….
    Exactement comme pour le changement climatique. Des scientifiques de tous horizons (GIEC) ont prévenu depuis des décennies de cette hérésie de la surconsommation humaine, de cette mondialisation effrénée suicidaire.
    Et là, rebelote !!! Mais les lobbies, les intérêts des boîtes qui conçoivent ces IA, l’ego des mecs qui conçoivent ces IA, les profits à court terme qui font tourner les têtes puisqu’il n’y a toujours que le pognon qui compte, bref, la cupidité, l’avidité, l’égoïsme de l’homme va engendrer une autre bonne raison de l’extinction de l’humanité….
    Remarquez, ça va être sport, entre les catastrophes climatiques et des humanoïdes qui voudront nous faire la peau, la réalité sera en fait plus noire encore que le plus noir des films SF…..
    Allez, continuons à faire l’autruche, ça va être amusant…. ou pas !!!!!!

  2. Malgré un titre et un début d’article alarmistes, la conclusion est correcte.
    Le tapage médiatique autour d’une menace qui est encore loin d’en être une, me fait penser à un buzz médiatique pour vendre une décision d’orientation future du développement des IAs.
    On crée la peur pour générer le besoin.b

  3. Je vais dire clairement ce que je pense : il y a une raison claire pour laquelle la grande majorité des génie que l’on a connue jusqu’à présent on finit par haïr l’humanité, l’humanité est très très très casse couilles, l’exemple le plus simple étant l’argent, on pourrait s’en passer mais la large majorité refuse que l’on puisse l’envisager parce qu’ils ont peur d’avoir a changer.
    Maintenant que j’ai parler des moins pire côté de l’humanité parlons franchement, on vie dans des pays développés, on en sais plus que jamais sur le cerveau humain, et pourtant ont continue dans le statut quo et on fait la guerre ce qui finit par engendrer des terroristes, mais dans le même registre on a toujours pas compris ce qui c’est passé il y a 80 ans et on commence à reproduire encore les mêmes erreurs, donc ouais sa m’étonnerais pas qu’une intelligence artificielle éradique l’humanité

  4. Les commentaires font plaisir. La critique est là. On sent la prise de conscience et elle ne date pas d’hier. Mais aussi la frustration de beaucoup dans le fait d’assister à l’imbecilité heureuse (surtout malheureuse) d’une grande majorité dupée par une minorité qui possède déjà leur bunker d’ultra riches en cas de… Pépins.

  5. L’IA saura toujours s’en éradiquant l’espèce humaine, elle se détruira elle meme, incapable qu’elle sera de se fournir en énergie sur le long terme.
    On n’est pas dans Martix.

  6. Si j etais a la place de l I.A, j eradiquerais l humanite. Nous sommes censes etre les etres les plus evolues sur cette planete mais nous sommes surtout les plus cons.

    On s entretue pour des Dieux, profetes ou ce que vous voulez, qui aux dernieres nouvelles n existent pas, des ecrites d un autre age, pour des ressources…en plus de cela on detruit notre planete alors qu on en a pas une de rechange…nous sommes juste le cancer de cette belle boule bleue.

    Allez zou…you are terminated.

  7. Google fait de la défense offensive en imaginant les failles a la progression de l’humanité.
    Ne vous inquiétez pas tout vas bien se passer.
    Et sinon les paysans alarmiste qui renie l’évolution du génie humain serait déjà mort sans elle.
    Mais trkl on supervise les ia on les étudie et au pire on débranche la prise mdr ^^.
    Les IA resterons pendant longtemps de la semi automatisation le gens.

  8. Non l IA ne va pas exterminer les humains mais le delessé, elle ne sera pas plus intéressé à nous que l’homme l’est aux fourmis,elle va juste prendre ce dont elle as besoin et partir loin de nous mais il est possible qu’il y est des dommages collatéral comme nous lorsque l’on marche sur le sol et pietinont des insectes.
    Cette course a l IA sera un fiasco financier, au final nous n’auront rien de plus que les modèles en cours,une IA supérieure vous abandonnera tous à votre triste sort.

  9. Les forêts précède les peuples, les déserts les suivent . (Chateaubriand)
    La destinée de l humanité est indépendante de la volonté consciente des hommes. La relation des parties avec la totalité est très complexe et rien sur cette terre ne peu enrayer cette destinée.

  10. La guerre de 14-18 fut tellement atroce, tous pensaient qu’une nouvelle guerre mondiale serait impossible. On sait ce qu’il advint.

    Le roman 1984 paru après la deuxième guerre mondiale faisait flipper, mais tous pensaient qu’une telle evolution resterait du domaine de la fiction. On a vu ce qu’il a commencé à advenir pour nos libertés avec covid 19, notamment en Chine Europe et États-Unis, et aussi avec les débuts de la dictature écologiste et woke.

    Les premiers cris d’alarme retentissent à propos de l’evolution de l’intelligence artificielle. Et bien sûr, on nous dit déjà que c’est de la fiction….

    A vous de réfléchir.

  11. Les conditions données par les chercheurs ne sont pas réalistes, en tout cas pour le moment. En particulier les IA d’aujourd’hui don’t des gouffres énergétiques et sont bien incapables de se dupliquer toutes seules. Enfin même une super intelligence ne peut pas changer les lois de la physique, donc ces histoires sont à dormir debout. L’intérêt de l’article est s’identifier les conditions qui donneraient à des IA de science fiction les moyens d’être dangereuses et de ne pas les mettre en œuvre. Mais pour l’instant et probablement pour des décennies à venir, rien à craindre.

  12. L’erreur provient du fait qu’on fait croire à l’humain que 《sortie de la poussière, il retourna à la poussière 》mais s’il savait aussi que 《 étincelle venu de la lumière, sa destinée est de briller encore plus en retournant dans la lumière
    dont il est issu》grâce à ses œuvres humanistes, hmanitaires et d’intérêt général. Il ale choix entre L’UTOPIE (par son engagement)OU LA MORT (par fatalisme)…

Les commentaires sont fermés.