L’année 1998 aura été celle des premières briques SAN (Storage Area Network – réseau de stockage), 1999 celle de la constitution d’offres stables, et 2000 celle des premières réalisations. Partielles, néanmoins, et ciblant davantage des besoins de sauvegarde que de stockage. Entre-temps, l’offre NAS (Network Attached Storage – stockage en réseau) a explosé. Car, pour mutualiser des ressources de stockage entre plusieurs serveurs basés sur des systèmes d’exploitation différents, les entreprises ont plus facilement recours à des serveurs de fichiers prêts à l’emploi, qui requièrent peu de changements d’architecture et d’organisation. Inconvénient : une telle greffe s’opère au détriment de la bande passante du LAN. Ce point crucial, seule l’approche SAN le résout. La mise en place d’un réseau parallèle soulage le LAN et autorise des opérations telles que des sauvegardes en ligne et des copies miroirs distantes.Les constructeurs s’accordent sur la connectique. Et c’est Fibre Channel qui a été retenu. Mais l’arrivée du Gigabit Ethernet pourrait changer la donne. Néanmoins, on ne sait pas encore définir précisément où l’intelligence du réseau de stockage doit se situer, ni à quel dispositif – commutateur, baie de stockage ou de sauvegarde, serveur, etc. – incombe la responsabilité de la réalisation de telle ou telle fonction. Cela dépend de l’architecture mise en place et du besoin de l’entreprise.Le Gartner Group estime que le surcoût à l’achat par rapport à une solution classique varie de 10 à 25 %, selon le niveau de redondance. Mais, sur trois ans, le coût total de possession se révèle moindre. Et, surtout, le SAN est parfois la seule solution à des problèmes très pragmatiques de réduction des fenêtres de sauvegarde ou de mutualisation d’une bandothèque entre plusieurs baies de stockage.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.