Face aux risques encourus par les architectures e-business, les équilibreurs de charges ne suffisent pas à la tâche. Définir une politique de stockage est essentiel, même si les équilibreurs de charges savent rediriger le trafic des internautes vers des sites de secours, en cas de catastrophe sur le site principal.C’est l’un des éléments qui a fait défaut à un géant comme Yahoo!, qui a vu ses serveurs indisponibles pendant plusieurs heures, après avoir supporté 1 Gbit/s d’accès simultanés, du fait d’un déni de service distribué monstrueux. Mais, même une démarche multisite bien gérée ne permet pas l’économie d’un archivage bien maîtrisé. Cela signifie d’abord le contrôle des matériels de stockage proprement dit tels que les baies de disques, mais cela inclut également les ressources réseaux et les applications hébergées. Il faut donc intégrer ses propres outils de sauvegarde, de restauration, de réplication, de reprise après incident et d’archivage en ligne. Et surtout, les tester en grandeur réelle. Des serveurs de messagerie tels que Microsoft Exchange Server ou Novell GroupWise ne sont simples ni à protéger ni à restaurer. Si l’on tente de sauvegarder les boîtes aux lettres individuelles, et non le serveur dans son ensemble, les temps de sauvegarde et de restauration s’accroissent excessivement, et la consommation en ressources CPU devient prohibitive. Ce type de contrainte impose de s’appuyer sur des serveurs intermédiaires.Selon le cabinet d’études IDC, le stockage représente, actuellement, 50 % du coût total des investissements informatiques. En 2003, il en constituera 75 %. Un site Web nécessitera alors une capacité de stockage quatorze fois supérieure à celle qu’il requiert aujourd’hui ! Pour Georgy Kishtoo, directeur de l’activité Consultant d’Integra, ‘ il n’est pas rare de voir la fréquentation d’un site Web augmenter de 10 % par semaine, et sa taille doubler tous les deux mois ‘. Simultanément, la fenêtre temporelle allouée aux sauvegardes ne cesse de se réduire sous la pression d’une continuité de service astreinte aux 24 heures sur 24, 7 jours sur 7, 365 jours par an.La première difficulté est de dénicher l’homme de l’art. On trouve, en effet, plus facilement un M. Réseau ou un M. Sécurité qu’un architecte stockage. Le travail d’intégration est également énorme et nécessite des moyens matériels lourds. Seuls les tests permettent de s’affranchir des discours marketing des constructeurs.Comme en matière de sécurité, les procédures sont sur la sellette : quelle entreprise a véritablement testé la reprise après incident ou la reprise après blocage de ses serveurs ? Combien de personnes sont-elles formées pour pouvoir redémarrer, dans l’urgence, des serveurs devenus brutalement inopérationnels ?
Il faut également bien gérer les serveurs isolés
On note trop souvent l’absence totale de méthodes écrites. Face aux dangers potentiels, les systèmes de clusters et leurs nouvelles avancées apparaissent comme la solution ad hoc. Encore faut-il gérer correctement les serveurs isolés ! ‘ La sécurisation des données est assurée par les outils de sauvegarde et de restauration, tandis que la disponibilité l’est par la réplication ‘, détaille Joël Rodriguez, ingénieur avant-vente des partenaires de Computer Associates. L’éditeur possède une forte compétence en matière de serveurs Novell, grâce à son rachat de Cheyenne Software. Face à lui, Legato Systems valorise son excellente expérience du monde Unix et du cluster, notamment par le biais de la société FullTtime. Legato dispose de la maîtrise de clusters hétérogènes mêlant des n?”uds NT et Unix.Dernier membre du trio, Veritas pousse son expertise des environnements de Microsoft, après son rachat de Seagate. Il met l’accent sur son outil de gestion des volumes disques et des systèmes de fichiers. La société a fourni cette technologie, ainsi que la sauvegarde associée à Microsoft pour NT 4.0 et Windows 2000, dans des moutures évidemment bridées. Veritas veut aller plus loin dans la gestion de clusters hétérogènes. ‘ Dans un avenir proche, Veritas Cluster Server pourra mixer des environnements Sun Solaris, HP-UX et NT dans un même cluster, affirme Philippe Nicolas, responsable européen du marketing produits on line et clustering de Veritas. Le tout sera possible grâce à la présence des couches de gestion des disques et des systèmes de fichiers Veritas Volume Manager et Veritas File System sur ces environnements que nous sommes les seuls à maîtriser ‘. Il reste, toutefois, une limite : le format de données des applications sera- t-il compatible entre ces environnements ?Quant au matériel, le SAN (Storage area network) est censé être l’architecture idéale pour ne pas saturer la bande passante ni les serveurs placés du côté du LAN. Or, il convient d’être extrêmement prudent. ‘ Halte au marketing ! ‘, indique de façon anonyme un expert du stockage. Il n’existe pas, aujourd’hui, d’architecture de constructeur qui soit compatible à 100 % avec les principes du SAN. Les seules approches qui fonctionnent vraiment sont monoconstructeurs ou monoéditeurs, et la liste de compatibilité matérielle est particulièrement réduite. Le simple choix d’un commutateur Fibre Channel est structurant. Plusieurs raisons expliquent ce phénomène. Comme pour toute nouvelle technologie, il y a des problèmes techniques à résoudre. Les SAN ont connu de sérieux soucis d’interopérabilité à leurs débuts, même si la situation s’améliore peu à peu. En outre, on se trouve en présence d’un choix stratégique de la part des constructeurs, qui veulent à tout prix préserver leurs parts de marché. Comment bénéficier d’un véritable support de la part d’un constructeur avec des éléments qui ne sont pas directement sous son contrôle ? La loi du ‘ c’est pas nous, le problème vient des autres ‘ s’applique, là, comme ailleurs.
L’interopérabilité des matériels va s’améliorer de mois en mois
Dès lors, certains constructeurs, tel EMC, n’hésitent pas reprendre les baies de stockage de leurs concurrents pour gagner un compte et s’affranchir des difficultés inhérentes à une interopérabilité encore lointaine. L’interopérabilité des matériels va s’améliorer au fil des mois. Il restera alors à séduire les sociétés d’infogérance spécialisées dans le stockage, grâce à des solutions pérennes qui ne les rendent pas définitivement dépendantes d’un seul fournisseur. Seules les grandes entreprises ayant une méthodologie et des processus de développement régulièrement testés peuvent se lancer seules dans l’aventure.Pour les autres, le recours à des sociétés d’hébergement est un passage quasi obligé, sans pour autant abandonner tout regard critique.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.