Quatorze siècles de calculs réduits à vingt-six semaines. En 2007, lors du lancement de la phase de test du projet Help Care Muscular Distrophy (HCMD), consacré à la dystrophie musculaire, 1 489 années auraient été nécessaires pour la mener à son terme avec un seul ordinateur équipé d’un processeur cadencé à 2 gigahertz. Six mois ont suffi grâce aux milliers d’internautes qui ont offert d’utiliser leurs ordinateurs quand ceux-ci ne font rien, c’est-à-dire la majeure partie du temps. Pour exploiter la puissance de calcul des bénévoles, le projet HCMD a eu recours à une grille informatique nommée World Community Grid (WCG).
Une technique de mutualisation
C’est à la fin des années 90 que remonte le principe de grille informatique, ou grid computing en anglais. Il consiste à regrouper, à travers un réseau comme Internet, les processeurs, mémoires vives et espaces de stockage d’une multitude d’ordinateurs, de manière à n’en constituer qu’un, aux ressources accrues. Le tout selon plusieurs contraintes qui distinguent la grille informatique d’autres techniques de mutualisation. D’abord, les ordinateurs qui forment une grille sont disséminés géographiquement. La grille WCG s’étend ainsi à l’échelle de la planète, en Europe, aux Etats-Unis, en Asie. Ensuite, les ordinateurs sont très différents les uns des autres d’un point de vue matériel et logiciel. Des ordinateurs d’internautes, des serveurs d’entreprises, des grappes universitaires, des Mac, des Windows, des Linux doivent pouvoir travailler de concert. Souvent, les ordinateurs appartiennent déjà à des réseaux qui en contrôlent l’accès, comme dans les instituts de recherche. Plusieurs utilisateurs peuvent recourir à la grille en même temps. Enfin, l’ordinateur virtuel que forme la grille doit être aussi simple à manipuler qu’un ordinateur classique.Redoutables outils de calcul, les grilles informatiques, toutefois, ne concurrencent pas les supercalculateurs, ordinateurs surpuissants dont les ébouriffantes performances font l’objet d’un classement officiel (sur le site www.top500.org). Elles en sont un judicieux complément. Même si une grille, à l’instar du W-LHC, peut rivaliser avec un supercalculateur en nombre de processeurs, elle n’est pas prévue pour mener le même type de calcul. Les processeurs du supercalculateur, confinés au même endroit, reliés par des circuits ultrarapides, communiquent entre eux beaucoup plus rapidement que ceux d’une grille. Ils sont meilleurs pour résoudre des calculs très complexes, ceux qui combinent de multiples équations de telle sorte que les résultats influent les uns sur les autres. En revanche, une grille, grâce à sa puissance de dizaines voire de milliers de processeurs, est capable d’effectuer des calculs plus simples. Elle est particulièrement adaptée quand il s’agit de les répéter un grand nombre de fois. Au supercalculateur la simulation d’un modèle climatique, avec calcul des températures en de multiples points du globe ; à la grille le calcul des cartes finales de températures, par exemple. Le besoin d’indépendance entre les résultats est encore accentué lorsque la grille recourt aux ordinateurs des internautes. Dans une grille dite bénévole ou communautaire, aussi nommée desktop grid computing pour la distinguer de la grille informatique classique, les ordinateurs des participants ne communiquent pas du tout entre eux. Ce sont des serveurs qui répartissent et centralisent les calculs. Comme le débit de la connexion Internet des volontaires s’élève au mieux à quelques mégabits par seconde, les calculs confiés aux grilles bénévoles réclament aussi très peu de données. Seulement 0,25 Mo par unité de travail, plus quelques informations supplémentaires pour un total de 340 Ko transmis, pour SETI@home, l’une des plus célèbres et des plus anciennes grilles de ce type. Démarrée en 1999, elle analyse les signaux radio en provenance de l’espace à la recherche d’un hypothétique message provenant d’une forme d’intelligence, une perspective alléchante qui n’est pas pour rien dans les millions d’internautes qu’elle fédère. Le quart de mégaoctet à analyser représente tout de même 2 millions de 0 et de 1 parmi lesquels une batterie de calculs s’acharne à débusquer tout signal cohérent. Mais toujours pas de message de E. T. plus de dix ans après les premières écoutes.
Des pots communs informatiques
A l’image du projet SETI, la recherche s’est très vite intéressée aux grilles informatiques pour des raisons idéologiques, économiques et pratiques. “ La grille est bien adaptée au modèle collaboratif de la recherche publique ”, souligne Vincent Breton, directeur de France Grilles (voir encadré) et de l’Institut des grilles (CNRS). Les grilles académiques fonctionnent comme des “ pots communs ” informatiques. Chaque institution y apporte ses ordinateurs de calcul. L’intérêt économique est évident : en contre-partie, chacun bénéficie de la puissance de l’ensemble des contributeurs, pour un investissement bien inférieur à l’achat d’un supercalculateur.Ce sont d’ailleurs des considérations économiques qui ont poussé à la réalisation de l’une des grilles pionnières, World LHC Grid Computing (W-LCG). En 1994, le Cern annonce son projet de construction d’un nouveau collisionneur de particules, le LHC. Au plus fort de son fonctionnement, il doit produire 1 gigaoctet de données par seconde, l’équivalent d’un CD et demi. 15 pétaoctets, soit 15 000 téraoctets, ou encore 15 000 000 gigaoctets de nouvelles données en sortiront chaque année. Le problème se pose rapidement : comment réussir à traiter et à stocker une aussi faramineuse quantité d’informations ? Pour le collisionneur précédent, le LEP, un centre de calculs spécifique a été construit à proximité. Inimaginable dans ce cas. “ Les impératifs d’infrastructures et de budget permettaient au Cern d’assurer seulement 20 % des calculs ”, rappelle Faïrouz Malek, responsable de la partie française de la grille W-LGC.
Un interlogiciel pour harmoniser
Parmi les solutions envisagées émerge celle de répartir les calculs ? et donc les coûts ? entre plusieurs centres. Elle se concrétise avec la création, en 2005, de la grille internationale W-LGC. Laquelle compte aujourd’hui près de 250 centres de calcul répartis dans plus de 40 pays, soit 100 000 processeurs à la disposition de 8 000 physiciens à travers un réseau spécial d’un débit de 70 gigabits par seconde. Quant au côté pratique de la grille, pas besoin d’être informaticien pour recourir à ses services. C’est à un logiciel spécifique, l’intergiciel, qu’échoit la difficulté de faire travailler en harmonie les milliers d’ordinateurs. Il joue le rôle d’intermédiaire entre tous les logiciels concernés. “ L’intergiciel s’occupe des droits d’accès, de la réservation des ressources de calcul, du stockage. Le but est que tout s’effectue de la manière la plus transparente possible ”, détaille Frédéric Desprez, directeur de recherche à l’Inria, responsable du projet Grid5000, une grille d’expérimentation consacrée à la mise au point des intergiciels, d’algorithmes et d’applications. Pour les scientifiques qui font appel à une grille, cela revient à se connecter à une page Web puis à cliquer sur un lien pour récupérer le résultat de leurs calculs. Autre avantage : une grille est plus souple qu’un supercalculateur dont l’emploi est strictement encadré. “ Il faut parfois attendre six mois pour obtenir des heures de calculs sur un supercalculateur, rappelle Franck Le Petit, astronome adjoint à l’Observatoire de Paris. Or, en astronomie, les données accumulées dans le cadre des projets internationaux sont publiques. Les théoriciens doivent rapidement faire tourner leurs modèles afin de publier les résultats en premier. ” Des grilles thématiques voient alors le jour. “ Une grille comme celle du Décrypthon, à la disposition notamment des chercheurs en pathologies neuromusculaires, permet de donner un coup de pouce à leur projet au moment où ils ont besoin d’accéder à de la puissance de calcul ”, explique Thierry Toursel, responsable scientifique de la grille Décrypthon. Créée en 2005 à l’initiative de l’Association française contre les myopathies, avec IBM, le CNRS et six universités, elle se compose de 488 processeurs prêts à servir, répartis sur les six campus partenaires. La simplicité d’utilisation des grilles a encouragé de nombreux domaines scientifiques à suivre l’exemple de la physique des particules (LHC). Sciences de l’environnement, sciences de l’univers, biologie, chimie et même sciences de l’homme et de la société s’en sont emparés. L’usage de la grille suit trois grandes tendances qui souvent se mêlent pour un même domaine. D’abord, la puissance de calcul mirifique par rapport à celle dont disposent habituellement les laboratoires est un gage de résultats extrêmement plus rapides. Elle autorise des simulations plus ambitieuses. En archéologie, par exemple, la grille sert à ressusciter en images de synthèse des monuments détruits. Mais pas seulement : il devient possible d’étudier les effets de la lumière du jour sur les façades, comme Monet l’a fait avec la cathédrale de Rouen. “ Avant, on se bridait pas mal, confie Robert Vergnieux, responsable de la plate-forme 3D Archéovision, à l’institut Ausonius. On hésitait à lancer 150 essais de lumière quand un seul prenait déjà plusieurs jours de calcul. ”Ensuite, à l’instar du LHC, les instruments de mesure scientifique, tels les satellites et les télescopes en astronomie, récoltent des quantités de plus en plus colossales de données. La grille est une solution pour venir à bout de leur traitement, mais pas seulement. Elle simplifie aussi grandement le stockage des données et leur accès. C’est la dernière utilisation phare des grilles : la création de gigantesques bases de données consultables de partout, alors qu’elles sont découpées en morceaux hébergés en plusieurs lieux. C’est le cas en biologie notamment. Un laboratoire qui étudie un infime morceau d’ADN ou un jeu de quelques protéines va enrichir une base commune avec d’autres équipes de ses résultats. C’est vrai aussi pour des secteurs moins flagrants, comme l’imagerie médicale. Scanners à rayons X, IRM, équipements ultrasonores fournissent désormais des images numériques. Une collecte sans cesse enrichie par l’arrivée de nouveaux patients, un centre de radiologie produisant quelques dizaines de téraoctets d’images par an. A partir de cette manne, la grille permet de créer une énorme base d’images, lesquelles restent physiquement dans les établissements qui les ont produits, dans le respect des règles de confidentialité. “ Les études médicales ont besoin d’ensembles de données cohérents. Ils sont d’autant plus riches qu’ils fédèrent les données de plusieurs hôpitaux au lieu d’un seul auparavant. C’est particulièrement intéressant dans le cas des maladies rares où chaque hôpital traite peu de cas ”, témoigne Johan Montagnat, chercheur en informatique (CNRS).
Vers le nuage informatique
Et les entreprises ? Si, au début des années 2000, quelques-unes ont communiqué sur l’utilisation de grilles informatiques, comme EDF ou EADS, les entreprises, depuis, se sont tournées vers une évolution de la grille, le nuage informatique, popularisé sous son appellation anglaise cloud computing. Il s’agit, cette fois moyennant finance, de choisir précisément le type d’ordinateurs auquel on souhaite recourir. Cela va de la machine “ nue ”, dépourvue de tout, même de système d’exploitation, à la machine complète, avec choix des logiciels qu’elle héberge. Amazon, Google et Microsoft font partie des sociétés qui commercialisent de tels services. La recherche n’est pas en reste. L’initiative européenne Stratus-Lab vise à combiner, progressivement, les techniques de nuage informatique avec les grilles de calculs
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.