Les faits
Oracle et Sun présentent des configurations serveurs qui battent des records de performances dans le domaine des bases de données. Le cluster de 12 nœuds Sparc Enterprise T5440 traite 7,7 millions de transactions à la minute, soit environ 1,1 million de plus que l’IBM Power 595 sous DB2, jusqu’ici leader du transactionnel intensif.
L’analyse
Pas moins de dix ans que Sun n’osait plus faire concourir ses serveurs aux tests de performances TPC-C, tant IBM avait pris de l’avance. Mais cette fois, Oracle et Sun sont à ce point persuadés d’avoir mis au point la reine des configurations qu’ils lancent un défi : ils offriront 10 millions de dollars à toute entreprise qui, migrant sa base Oracle 11g d’un serveur IBM vers du matériel Sun, ne verrait pas les performances multipliées par deux.Les bons résultats des configurations matérielles présentées par Oracle et Sun sont dus à l’utilisation de supports de stockage faits de mémoire flash, lesquels sont jusqu’à 100 fois plus rapides en lecture que des disques SAS traditionnels. Ici, le cluster de nœuds T5440 s’accompagne de plusieurs baies 1U Sun F5100, embarquant jusqu’à 80 modules SSD de 24 Go chacun, reliées en FC. Chacune d’elle supporte jusqu’à 1,6 million d’entrées/sorties par seconde (IOPS) et offre une bande passante de 12,8 Go/s, à partager entre les 12 serveurs de la solution. En clair, pour obtenir des performances similaires avec des baies de stockage traditionnelles, il aurait fallu entasser 3 000 disques de 15 000 t/min sur 14 étagères rack…
Un excellent rapport coût/performances
Pour Andy Walsk, vice-président d’Overland pour l’Europe, cette comparaison change radicalement l’approche budgétaire du stockage pour l’entreprise. Selon lui, on évaluait jusqu’ici les ressources en coût par gigaoctet, un point de vue défavorable aux solutions flash puisque celles-ci offrent huit fois moins de capacité que les unités SAS à prix égal. “ Mais si on calcule en coût par IOPS, les supports flash représentent dès aujourd’hui une économie qui dépasse le facteur 100, puisqu’il faut acquérir moins de disques, la mémoire flash ayant une durée de vie plus longue et consommant moins d’énergie ”, indique-t-il. Le constructeur Stec affirme que ses disques SSD ont un rendement d’environ 3 000 IOPS par watt, alors qu’un disque SAS ne dépasse guère 17,5 IOPS par watt. Dataram souligne que son accélérateur NAS à base de SSD atteint 450 000 IOPS pour un prix d’environ 65 000 dollars, alors que les modèles équivalents à base de SAS chez Gear6 et Netapp valent plus de 400 000 dollars.En matière de stockage sur mémoire flash, les entreprises n’ont pas attendu les propositions des grands fournisseurs. En France, l’intégrateur Alyseo commercialise depuis deux ans des cartes flash Fusion-io se connectant en PCIe et dont la capacité va de 80 à 640 Go. “ Selon nos mesures, une seule carte de 80 Go atteint les performances de 10 disques FC. Cela signifie que le stockage en flash est la seule solution économiquement réaliste pour qu’une PME se dote d’une base de données performante ”, explique Yacine Kheddache, directeur technique d’Alyséo. “ Reste qu’investir aujourd’hui dans une solution uniquement flash n’est pas réaliste ”, rétorque Bob Fine, directeur marketing produit chez Compellent ! Et d’affirmer que la faible capacité des unités flash ne peut contenter les besoins des entreprises : “ Les fournisseurs du stockage vont bientôt tenter de relier plus efficacement une ressource SSD très performante et chère à une ressource Sata de haute capacité et peu chère. Ce sera la principale innovation, qui va démocratiser le SSD. ”De fait, les fournisseurs assemblent supports SSD et disques magnétiques de manières différentes. Certains, comme IBM et EMC, proposent de répartir les données sur les uns ou les autres selon la criticité de leur rapidité d’accès. Problème, cette criticité est d’autant plus difficile à déterminer qu’elle est susceptible de changer régulièrement. D’autres, comme Dataram, disposent d’un boîtier de mémoire flash entre les serveurs et les baies de disques magnétiques. Dans ce cas, la mémoire flash sert de cache et accélère systématiquement les accès des serveurs vers les données en cours. Ce qui n’est pas forcément pertinent : “ Même les données les moins importantes vont dans le cache et, capacité réduite oblige, elles en chassent celles qui mériteraient d’y rester ” détaille Krishna Nathan, vice-président en charge du développement des nouvelles solutions de stockage chez IBM.Oracle et Sun ont déployé une solution hybride sur l’Exadata V2. Physiquement, chacun des 14 serveurs de stockage utilise 4 cartes de 96 Go de flash sur bus PCIe, en amont de 12 disques Sata de 2 To, comme un cache. Du point de vue logique, les ressources flash sont identifiées comme des disques à part entière par le système de fichiers ZFS de la dernière version de Solaris 10, l’Unix de Sun. Ici, ZFS identifie en permanence les données les plus accédées et réaffecte dynamiquement les numéros de leurs blocs Sata à des zones de stockage situées en flash. En tâche de fond, sans ralentir les transactions, il préserve la similitude entre les données fréquemment modifiées en cache et leur copie, censée rester sur disque Sata.Cette fonction est disponible depuis juin dernier dans Opensolaris, la version communautaire de Solaris. Emmanuel Florac, directeur technique de l’intégrateur Intellique, se félicite de l’avoir déployée : “ Grâce à ZFS, la base de données de Metaboli peut gérer la connexion de 150 000 utilisateurs pendant des plages horaires courtes. Pour cela, nous n’avons installé que 16 disques SSD en amont des Sata et des SAS. ” Krishna Nathan promet l’arrivée imminente dans les NAS d’IBM de fonctions équivalentes à celles du dernier ZFS. EMC laisse entendre qu’il publierait une alternative d’ici à la fin de l’année.Les supports de stockage en flash ont aussi leurs détracteurs. Alain Clément, chef de produit stockage chez HP en fait partie : “ Les SSD vont être déterminants pour accélérer l’accès aux index des données, lesquels ne représentent qu’une toute petite partie d’une base. En revanche, utiliser ce type de stockage pour accélérer aussi les transactions peut avoir des conséquences fâcheuses ”, assure-t-il.Il cite la saturation des contrôleurs disque, voire celle des applications. Et illustre son propos avec l’exemple de boîtiers d’accélération du stockage uniquement constitués de mémoire vive : “ Ces solutions existent depuis longtemps, mais n’ont jamais décollé car elles faussent les traitements. ” Typiquement, les données de l’application principale arrivant plus vite, leur traitement retarde l’exécution des tâches subalternes. Le cas échéant, la chronologie des processus ne sera plus celle imaginée par les développeurs, ce qui pourrait entraîner des blocages.
Un optimisme tempéré
Laurent Bartoletti, directeur produits chez Hitachi, surenchérit : “ Ni les architectures de stockage actuelles, ni les suivantes ne sauront tirer parti de toute la puissance offerte par les unités flash. C’est un défi qui ne sera pas relevé avant 2015-2020 ”, avance-t-il. Bernard Ourghanlian, directeur des technologies chez Microsoft, achève de pondérer l’optimisme du marché : “ On ignore encore ce que nous réservent les spécificités de la technologie flash ”, prévient-il. Il pointe la nécessité d’effacer les informations précédemment enregistrées dans un bloc avant d’en stocker de nouvelles. Cette opération, qui ne peut avoir lieu qu’un nombre limité de fois, pourrait conduire à une situation inédite pour un support de stockage. Par exemple, voir ses performances chuter au fur et à mesure qu’on l’utilise.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.