L’actuelle multiplication des logiciels pour réseaux de stockage n’est pas sans rappeler la floraison des outils de gestion pour réseaux locaux au début des années quatre-vingt-dix. Et ce foisonnement n’est pas sans poser de problèmes. En effet, comment évaluer cette multitude de jeunes éditeurs, dont les approches en termes d’exploitation de SAN et de NAS offrent des couvertures fonctionnelles inégales ? On peut déjà commencer par se référer aux tentatives de classement établies par les cabinets d’analyses. Pour l’Aberdeen Group, les fonctions touchant peu ou prou à l’administration des données s’organisent en quatre grands champs fonctionnels : “data protection” ; “storage resource management” ; et deux catégories dans lesquelles vient se ranger la kyrielle d’outils SAN du marché, “data placement” et “storage management”. Le “data placement” couvre les fonctions d’utilisation des espaces de stockage ?” configuration de volumes physiques et logiques, migration, réplication, etc. Quant au “storage management”, il s’applique à la supervision proactive et à la configuration des ressources ?” matériel, systèmes, systèmes de fichiers, clustering, etc. Suivant l’orientation suivie par son éditeur, un outil SAN s’affichera plutôt dans l’une ou dans l’autre de ces deux catégories fonctionnelles.
La virtualisation unifie les espaces de stockage
TSNM de Tivoli, par exemple, est typiquement un outil de supervision proactive des ressources de stockage. S’appuyant sur la découverte et le paramétrage d’environnements SAN, il propose pourtant certaines des fonctions avancées que présente, par exemple, SANSymphony de Datacore, un logiciel davantage orienté vers la gestion et l’exploitation des espaces logiques de stockage SAN.SANSymphony met en ?”uvre un concept très médiatisé : la virtualisation des espaces de stockage. Par virtualisation, on entend la capacité d’un logiciel à découpler l’organisation de l’espace physique de la vision logique que l’on peut en avoir. Cette technologie permet de concrétiser une promesse du SAN, à savoir la capacité à agréger les ressources physiques (agrégation de disques et de baies) de constructeurs différents. L’idée étant de mettre en place des espaces de stockage unifiés, mais aussi d’organiser, de partager et de dimensionner dynamiquement les volumes logiques.Maintenant, que peut-on reprocher à ces premières vagues de gestionnaires du stockage en réseau ? Certainement leur jeunesse et, corrélativement, leur manque d’ouverture. Car les éditeurs sont confrontés à un problème ardu : une ouverture idéale de leur outil impliquerait le respect d’une matrice de compatibilité gigantesque, demandant de tester et de certifier une multitude de combinaisons de baies de stockage, adaptateurs, routeurs, logiciels, commutateurs, etc. Bref, un programme impossible à tenir. Rien n’empêche de repousser les limites de l’ouverture des logiciels actuels. Et c’est là le sens des multiples programmes de partenariat et de certification menés entre éditeurs et constructeurs. Reste qu’on sera toujours loin du logiciel “prêt à porter”. Mais le “prêt-à-porter” a-t-il jamais existé en matière d’administration de systèmes ?
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.