“L’environnement économique difficile de l’année 2001 a pour conséquence la rationalisation des dépenses informatiques. Les entreprises cherchent donc à optimiser leur système d’information (SI) et à réutiliser les applications métier ainsi que les données de référence stockées sur leurs mainframes. Associez à cela l’évolution technologique de ces imposantes machines et vous obtenez la tendance actuelle, le grand retour du mainframe”, résume Stéphane Schweizer, p-dg de WRQ.Un constat qui se manifeste chez IBM par les bons résultats enregistrés sur ce segment d’activité. “Le chiffre d’affaires généré par les ventes de mainframes a progressé de plus de 15 % en 2001, indique Patrick Kesler, directeur des ventes eServeurs-zSeries chez IBM France. L’Europe, et en particulier la France, a connu une forte croissance des ventes, ainsi que de nombreuses demandes d’augmentation de capacité : puissance CPU et architectures parallèles. Les entreprises recherchent davantage de puissance de calcul de façon à exploiter des applicatifs e-business sur leurs mainframes et à installer de nouveaux produits consommateurs de ressources système (WebSphere, Siebel, Domino, etc.”La mort tant de fois annoncée des gros systèmes semble bel et bien compromise. “La plupart des grandes entreprises s’appuient aujourd’hui sur des mainframes pour mettre en oeuvre des traitements informatiques critiques. Cela fait des années qu’elles investissent dans leurs systèmes centraux et développent de nombreuses applications, noyau dur de leur SI. Comment imaginer qu’elles puissent aisément s’en débarrasser, souligne Stéphane Schweizer. “70 % des données stratégiques sont aujourd’hui hébergées sur de grands systèmes”, ajoute Peter Havart-Simkin, directeur du développement stratégique chez NetManage.Et Stéphane Schweizer de souligner : “Dans les années 80, si certaines grandes sociétés ont tenté d’abandonner leurs mainframes au profit des nouveaux serveurs destinés au e-business, elles ont vite constaté, souvent à leurs dépens, qu’il était illusoire, voire inconscient, de jeter leurs gros serveurs pour procéder à l’ambitieuse refonte de l’ensemble de leur SI.”C’est pourquoi vingt ans plus tard et un lifting en plus, le mainframe retrouve ses lettres de noblesse.
1 – Du système central propriétaire à l’architecture ouverte
Brève rétrospective historique. Au milieu des années 80, le célèbre modèle client-serveur fait son apparition sur le marché. L’émergence des micro-ordinateurs et celle des SGBDR contribuent à crédibiliser ce nouveau type d’architecture. Il semble posséder tous les avantages : pérennité, convivialité des interfaces, promesses de décentralisation des ressources informatiques, rapidité de développement des applications…Avec “systèmes ouverts” comme cheval de bataille, les informaticiens font du client-serveur l’architecture idéale des SI de demain. Ils enterrent alors, au moins dans le discours, les grands systèmes connus pour leurs caractéristiques fermées et leurs architectures propriétaires (SNA, MVS, IMS, VM, etc.). “Ces promesses trouvent d’ailleurs un écho favorable auprès des entreprises, qui refusent la dépendance vis-à-vis des constructeurs de mainframes, IBM et Bull principalement. Les nouveaux systèmes augurent une réduction des coûts de fonctionnement de l’informatique”, explique Stéphane Croce, directeur général d’Acucorp France.Mais l’architecture client-serveur (de première génération) se révèle finalement bien plus lourde à gérer, nécessitant l’installation et la maintenance des composants applicatifs sur tous les postes utilisateurs de l’entreprise. “On oublie un peu vite que les legacy systems hébergent des données de référence et des traitements vitaux pour l’activité de la société, un capital informatique correspondant à des investissements majeurs. Leur intégration au coeur d’une architecture à base de systèmes ouverts a posé, à l’époque, d’épineux problèmes, rappelle Olivier Marois, directeur technique de DK-Soft. Le désir de remplacer tous les systèmes centraux par des environnements ouverts au sein d’une informatique distribuée se dissout peu à peu dans les méandres de la complexité technologique”, ajoute-t-il.Au milieu des années 90, alors que le mainframe persiste dans les grandes entreprises, le modèle client-serveur évolue vers la notion d’architecture à base de composants réutilisables et interopérables. On ne parle alors de client et de serveur que de manière contextuelle : un composant client est celui qui émet une demande de service à destination d’un autre composant, ce client pouvant se comporter comme un serveur dans un autre contexte applicatif. L’architecture trois tiers est née.Des problèmes délicats de compatibilité entre composants et couches d’architecture font alors leur apparition. D’un côté, il y a un développement qui s’appuie sur des principes issus du modèle objet pour les nouvelles applications (front office, CRM, commerce électronique, etc.) ; de l’autre, des solutions propriétaires ou sur mesure développées en PL/1, en Cobol ou à l’aide d’un AGL (atelier de génie logiciel) non nécessairement orienté objet (Pacbase par exemple) pour le mainframe.Stéphane Croce d’Acucorp aime d’ailleurs à rappeler quelques chiffres marquants de source Gartner Group : “150 milliards de lignes de code Cobol sont aujourd’hui utilisées dans le monde, et 5 milliards de nouvelles lignes sont produites chaque année. Comment pourrait-on raisonnablement envisager de perdre cette richesse et de réécrire ces programmes ?”“D’où l’idée, souligne Stéphane Schweizer de WRQ, de rendre compatibles les applicatifs métier et les données hébergées sur les mainframes avec les outils e-business du marché. L’arrivée du Net et les nouvelles pratiques commerciales (one-to-one, CRM, e-commerce, etc.) favorisent d’ailleurs cette tendance.C’est pourquoi une société comme WRQ édite des solutions middlewares capables de construire des composants métier interchangeables à partir de toutes les ressources de l’entreprise, y compris les applications grands systèmes. Les sociétés peuvent ainsi adapter et réutiliser l’existant sans modification du code original. D’où un retour sur investissement rapide.”
2 – Vers le décloisonnement du mainframe
L’EAI (Enterprise Application Integration) s’inscrit dans cette dynamique de décloisonnement du mainframe, en tentant de prendre en compte des applications hétérogènes : gestion des commandes, des stocks et de la relation client par exemple. Plusieurs approches sont alors envisageables.
La première consiste à créer un modèle de donnée unique et partagé, une vue consolidée des informations nécessaires (intégration par les données).
La seconde requiert le développement d’un module d’intégration prenant en charge l’interface homme/machine de l’application finale et mettant en oeuvre les appels de traitements fondamentaux (intégration par les flux).Il est également possible de doter chaque application mainframe à intégrer d’un adaptateur spécifique qui assure les conversions de données indispensables à l’intégration globale des traitements (intégration en mode point à point). Une autre approche, plus simple, consiste à étudier le portage des applications et la migration des données vers des systèmes ouverts.
Il s’agit de mettre en oeuvre des techniques et des outils capables de récupérer les données et les traitements métier hébergés sur les mainframes, de façon à les porter sur des serveurs Unix ou NT.“Toutefois, souligne Stéphane Croce d’Acucorp, migrer des applicatifs est loin d’être aisé. Cela oblige à analyser le périmètre de chacune des applications et entraîne des changements dans la façon d’effectuer certaines tâches professionnelles. Une évolution souvent mal perçue par les collaborateurs.”Dernière solution enfin : le déploiement d’une architecture informatique orientée services. Objectif : décloisonner le système d’information en considérant tout élément du SI comme un service réutilisable. L’approche doit contribuer à réduire les îlots techniques et à faciliter la prise en compte d’applications hétérogènes, internes et externes à l’entreprise.En ce sens, la mise en oeuvre d’une architecture orientée services s’inscrit dans l’ouverture du mainframe aux solutions e-business. Tel est le point de vue de DK-Soft. Spécialisé dans les logiciels pour mainframes IBM, cet éditeur français propose des solutions et une démarche méthodologique les plaçant au coeur d’une architecture orientée services.
3 – Faire de son mainframe un e-mainframe
La mise en place d’un système d’information distribué orienté services s’inscrit dans le cadre d’un projet global d’entreprise. Placée sous le contrôle des instances dirigeantes de la société, cette transition doit être adossée à un comité de projet, chargé de piloter et de consolider l’ensemble des actions conduites par les diverses structures opérationnelles impliquées (en particulier, par le département informatique). Un travail de sensibilisation des collaborateurs (enjeux, déroulement) doit être mené dans une logique concertée de communication.Pas question, pour autant, de remettre au goût du jour les projets de grande envergure et à effet tunnel, comme les tristement célèbres schémas directeurs des années 80/90. Il convient simplement de procéder avec méthode à partir d’objectifs clairement identifiés. Toutes les opportunités pratiques permettant d’avancer sur la voie des services doivent être étudiées : nouveaux développements, convergence technique (fusion, acquisition, etc.), intégration d’applications, etc.
4 – Le mainframe Linux, serveur de demain ?
“Forts de l’engouement des entreprises pour Linux, nous avons décidé d’accentuer nos investissements sur ce secteur, explique Patrick Kesler d’IBM France. Le mainframe Linux z800 est packagé (matériel, logiciel VM, 3 ans de garantie, 8 Go de mémoire) et commercialisé 530 k d’euros. Lorsque la société souhaite davantage de processeurs ou de mémoire, le serveur est facturé en fonction du volume requis. Ce modèle constitue le précurseur d’une gamme plus vaste, dont nous annoncerons très prochainement les nouvelles offres. La dernière version de notre système d’exploitation pour mainframe z/OS autorise la cohabitation de systèmes virtuels sous Linux et sous OS/390 sur une même machine physique.”IBM semble fermement croire à l’avenir de Linux sur mainframe. En témoigne l’investissement consenti, d’un montant supérieur à 1 Md$. Selon Patrick Kesler, “ces machines connaissent déjà un franc succès commercial. Rien d’étonnant à cela, puisqu’elles répondent aux attentes des clients qui souhaitent limiter sensiblement la prolifération de leurs serveurs et réduire leur coût total de possession (TCO).”“Ils sont très astucieux chez IBM, sourit Stéphane Croce, d’Acucorp. Premier serveur de sa catégorie à fonctionner exclusivement sous Linux, le z800 sert à consolider de 20 à plusieurs centaines de serveurs et sait créer plusieurs centaines de machines Linux virtuelles sur une seule unité physique. Tout cela très rapidement.”Sans compter qu’avec une politique de prix comme celle pratiquée, le constructeur déplace sa cible clients vers les grandes PME-PMI. Clair, l’objectif de Big Blue consiste à imposer un unique mainframe surpuissant, hébergeant plusieurs centaines de machines virtuelles. Pour preuve, les campagnes publicitaires conduites en 2001 autour d’un produit de la gamme zSeries, unique et majestueux, le “centralisateur” du système distribué…
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.