La disponibilité d’un serveur doit être abordée graduellement, en s’inspirant toujours des mêmes principes de base : introduire de la redondance et limiter les Spof (Single Point of Failure). Le niveau zéro de la haute disponibilité consiste à sécuriser les sous-systèmes matériels du serveur. A commencer par les onduleurs, les alimentations, les disques Raid et les ventilateurs. La disponibilité, c’est aussi une question d’intervention à distance. Des cartes d’administration à distance sont proposées à cette fin par tous les constructeurs de renom : IBM, Compaq, HP, Dell, etc. Difficile, cependant, avec ces seuls éléments de sécurité basiques, de dépasser un taux de disponibilité matériel de l’ordre de 99 %. Dans le monde NT, on a certes vu depuis deux ou trois ans les constructeurs développer des offres de haute disponibilité à 99,9 % autour d’octoprocesseurs. Mais ces fournisseurs n’ont pris de tels niveaux d’engagement que pour certains SGBD, serveurs de messagerie ou progiciels de gestion intégrés.
Mettre en place des clusters pour augmenter la disponibilité
La recherche d’une plus grande disponibilité va à l’encontre de l’esprit d’ouverture des systèmes d’exploitation modernes. Considérons, par exemple, le cas de Windows 2000 Data Center. Plus qu’un nouveau produit, Data Center est un paquetage de services logiciels hautement disponibles, pour lequel ne sont certifiés que quelques plates-formes serveurs Intel haut de gamme de Bull, Compaq, Unisys, etc. Dans le monde Unix, les serveurs haute disponibilité bénéficient depuis longtemps de systèmes d’exploitation et de systèmes de fichiers éprouvés. Si l’on utilise des systèmes de fichiers journalisés, on commence aussi à exploiter des systèmes de fichiers clusterisés. En la matière, Veritas fait, avec son système de fichiers VxFS, figure d’emblème.Augmenter le degré de disponibilité d’une plate-forme passe nécessairement par la mise en place de clusters. Sur ce terrain, certaines plates-formes traditionnelles – OpenVMS, notamment – et les grands Unix commerciaux conservent une bonne longueur d’avance sur le monde Windows NT. Le concept de cluster actif/passif a été appliqué à des grappes de plus de deux n?”uds. Ce qui donne lieu à des configurations cluster de type “n+1″ (n serveurs actifs pour un serveur de redondance). Reste que, pour en arriver à ce stade, il faut regarder de très près la nature des contraintes et des besoins applicatifs. Toutes les applications ne nécessitent pas le clustering extrêmement personnalisé et à n?”uds multiples qu’autorise, par exemple, HACMP, le logiciel de clustering d’IBM. Si l’on se limite à la simple question de la disponibilité, les serveurs de bases de données mis en ?”uvre en arrière-plan d’infrastructures e-business se contenteront très bien d’une architecture en cluster à deux n?”uds. En complément à ce clustering ” back office “, les contraintes imposées par les applications de commerce électronique ont, par ailleurs, suscité l’engouement pour un modèle de clustering lâche, où des ” microserveurs ” à la technologie standardisée sont reliés en grappe par l’intermédiaire d’un dispositif à équilibrage de charge. Cette technologie est bien adaptée au mode transactionnel ” sans état ” des applications web. Elle est en passe de devenir incontournable pour la mise en place de serveurs web et de serveurs d’applications web.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.