Trop souvent expliqués par la piètre qualité du débit sur Internet, les temps de réponse trop longs d’un site peuvent avoir de multiples causes : application mal développée, mauvaise répartition des traitements entre les niveaux d’une architecture (clients, serveurs, bases de données), etc.L’optimisation de la qualité de service d’un site repose donc sur une vision globale de l’infrastructure permettant d’éliminer tout goulet potentiel d’étranglement. Cette approche implique la prise en compte de la problématique de montée en charge dès les premières lignes de développement de l’application.
Tester avant et après le déploiement
Croire qu’il suffit d’ajouter un peu de mémoire ou un processeur plus puissant pour accepter davantage de visiteurs ou pour améliorer les temps de réponse d’un site serait une grossière erreur. Si les développements ne sont pas sains, l’ajout d’un serveur peut très bien ne pas avoir l’effet escompté.En outre, intervenir a posteriori, une fois l’application déployée, coûte en général beaucoup plus cher que de corriger au fur et à mesure que l’on développe le site. En isolant chaque composant pour le tester et prédire à partir de quel moment (nombre de visiteurs) les temps de réponse deviennent inacceptables, l’entreprise peut optimiser la répartition de la charge en évitant ainsi des situations paradoxales telles qu’un serveur d’applications surchargé par des traitements trop lourds, alors que le serveur de la base de données est inoccupé.Ces tests peuvent être automatisés par des outils dédiés aux sites web. S’appuyant sur des robots qui simulent le comportement des visiteurs pour l’analyser, ils détectent les points de rupture grâce à des sondes placées sur chaque composant d’une application.Une fois le site conçu et déployé, il est encore possible d’analyser son comportement et de détecter les goulets d’étranglement. Contrairement au test de composant qui cherche à déterminer le point de saturation, la démarche a posteriori consiste à simuler des utilisateurs virtuels en partant de prérequis (temps de réponse acceptables, etc. ) dont tout dépassement provoque une alerte, permettant ainsi à l’entreprise d’intervenir en conséquence.Souvent trop chers à l’achat pour les PME, ces outils de test et de supervision sont aussi disponibles en location auprès de prestataires tels que Keynote, PointForward, Mercury Interactive ou Segue. Qu’il s’agisse de location ou d’achat, il convient de s’assurer avant de choisir un outil qu’il gère bien les protocoles, les logiciels et le middleware utilisés par le site.
Principaux acteurs du marché des logiciels de test de montée en charge | ||||
Produit/Éditeur | Caractéristiques | Prix ht (à partir de) | ||
LoadRunner de Mercury Interactive | Gestion de nombreux protocoles, bases de données, PGI et middleware (Tuxedo). Leader du marché. | 25200 F pour le contrôleur ; 21000 F pour un ” injecteur ” de 50 utilisateurs simulés. | ||
QALoad de Compuware | Gère de nombreux protocoles, bases de données, PGI et middleware, dont DCOM et Corba. | 202 000 F jusqu’à 100 utilisateurs virtuels. | ||
SilkPerformer de Segue | Gestion des protocoles Internet, bases de données Oracle et SQL, serveur d’applications SilverStream , ASP et ColdFusion, parser XML, etc. | Non communiqué. | ||
OpenSTA de Cyrano | Site web (requêtes HTTP et HTTPS, contrôle de la cohérence des liens). Open source ?” Principal concurrent de Mercury Interactive ?” Modules annexes pour autres applications et protocoles. | Gratuit sans limitation de durée ou de volume (contrat de maintenance payant). | ||
eBA*ServiceMonitor de Candle | Limitées au trafic d’Internet. | Par processeur, 61 000 F avec Windows NT, 122 000 F avec Unix. | ||
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.