Ilya Sutskever, l’un des cofondateurs d’OpenAI, vient d’annoncer le lancement d’une nouvelle entreprise consacrée à l’intelligence artificielle. Baptisée Safe Superintelligence Inc, la start-up va se concentrer sur la conception d’une « superintelligence sûre ». D’après le communiqué partagé par Ilya Sutskever, il s’agit du « problème technique le plus important de notre époque ».
Ce concept désigne une intelligence artificielle avancée, surpassant de loin les capacités intellectuelles humaines dans presque tous les domaines, qui reste alignée sur les valeurs de l’humanité. La firme indique qu’un laboratoire dédié au projet a déjà été mis sur pied. Par ailleurs, le groupe a rassemblé « une équipe restreinte et compétente composée des meilleurs ingénieurs et chercheurs du monde ». Derrière Safe Superintelligence, on trouve également Daniel Gross, l’un des anciens responsables de l’IA chez Apple, et Daniel Levy, un ancien responsable scientifique de l’équipe d’OpenAI.
À lire aussi : OpenAI confirme la sortie imminente de ChatGPT 5 et promet un nouveau « niveau de capacités »
La sécurité avant tout
Comme son nom l’indique, la société va mettre l’accent sur la sécurité de l’IA. Dans le cadre de cette approche, Safe Superintelligence va s’appuyer sur un modèle d’affaires qui garantit que « la sécurité, la sûreté et les progrès sont tous isolés des pressions commerciales à court terme ». Concrètement, « les frais généraux de gestion ou les cycles de produits » ne viendront pas distraire les scientifiques.
« Cette entreprise est spéciale en ce sens que son premier produit sera la superintelligence sûre, et elle ne fera rien d’autre jusque-là. Elle sera entièrement isolée des pressions extérieures d’avoir à proposer un produit grand et compliqué et d’avoir à être bloqué dans une course de rats compétitive », déclare Ilya Sutskever lors d’une interview accordée à Bloomberg.
De cette façon, les chercheurs vont développer l’IA sans se soucier de considérations financières ou économiques, et « évoluer en paix », ajoute Sutskever. En filigrane, le chercheur semble dresser un portrait critique de la direction prise par OpenAI. Sous la direction de Sam Altman, la start-up s’est retrouvée prise dans une course effrénée vers l’IA la plus performante, et multiplie les nouveaux modèles de langage. Après avoir lancé ChatGPT 4 et ChatGPT 4o, OpenAI prépare désormais l’arrivée d’un énième modèle encore plus compétent, évoqué sous l’appellation de GPT-Next ou GPT-5.
Malgré l’accent mis sur la sécurité, Safe Superintelligence ambitionne bien de rester à l’avant-garde de la recherche dans le domaine de l’IA :
« Nous abordons la sécurité et les compétences en tandem, comme des problèmes techniques à résoudre grâce à une ingénierie révolutionnaire et à des percées scientifiques. Nous prévoyons de faire progresser nos capacités le plus rapidement possible tout en veillant à ce que notre sécurité reste toujours en avance ».
Des dissensions chez OpenAI
Pour mémoire, Ilya Sutskever a participé à la fondation d’OpenAI aux côtés de Sam Altman en 2015. Le chercheur russe, qui a autrefois travaillé dans l’équipe de recherche Google Brain, a finalement quitté OpenAI le mois dernier. Il avait déjà abandonné le conseil d’administration du groupe quelques mois plus tôt, en marge de l’éviction et de la réintégration de Sam Altman en tant que PDG. Ilya Sutskever faisait partie des individus ayant voté pour le départ d’Altman.
Le scientifique russe estimerait qu’OpenAI, sous la houlette du PDG, néglige de prendre les précautions nécessaires dans la course vers l’intelligence artificielle générale. Chez OpenAI, Ilya Sutskever avait d’ailleurs créé une équipe entièrement consacrée à la prédiction des risques posés par l’IA. L’équipe, baptisée Superalignement, a été dissoute peu après le départ de l’informaticien. Les membres ont été réaffectés à d’autres postes.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : X