Les candidats à l'Elysée divisés sur le vote en ligne
Wireless Desktop, de Microsoft : sans-fil et sans génie
La Compagnie générale de géophysique mise sur un réseau de stockage en Fibre Channel
1 mars 2002 à 00:00
La CGG connaît une croissance annuelle de 50 % des volumes de données qu’elle stocke pour les entreprises pétrolières et gazières. Ses besoins sont satisfaits par un réseau de stockage en Fibre Channel.
L’entreprise et sa problématique : Accéder simultanément à de très importants volumes de données Effectuant des relevés numériques sur et, surtout, sous le terrain ou les océans afin de déterminer la présence de matières premières (gaz et pétrole), la CGG (Compagnie générale de géophysique) travaille pour les principaux exploitants pétroliers, tels BPAmoco et TotalFinaElf. Un projet typique de collecte de ces données représente 5 To de données brutes, 50 To de données intermédiaires, et des centaines de gigaoctets d’images finales. Plus de cinquante projets peuvent être actifs simultanément sur un grand site.
Jusqu’en 1998, le traitement des données s’appuyait sur une configuration à base de bandes magnétiques. Les informations étaient stockées sur un support magnétique, puis lues sur des lecteurs standards (bandes 9 pistes, formats IBM 3480, 3490 et 3590). Des programmes de traitement du signal étaient ensuite appliqués, et les résultats sortis sur bande.
L’accès à ces données devenait pénalisant du fait de la vitesse de calcul des ordinateurs. Les baies de disques se sont substituées au traitement bande à bande. Cela a permis de cerner les avantages de cette architecture, en montrant les énormes besoins en espace disque pour arriver à la solution cible, où l’utilisateur, le géophysicien, accéderait à ses données systématiquement sur disque.
Le cahier des charges : Des performances optimales à moindre coût Avec une croissance des données de 50 % par an, il faut pouvoir accéder simultanément à de très gros volumes de données, via un grand nombre de processus de calcul dans des architectures hétérogènes Unix, le tout à des coûts et à des performances acceptables. ” La demande de nos clients de délais plus courts et de projets plus larges avec des résolutions plus fines a imposé une augmentation des capacités disques “ , indique Laurent Delorme, responsable de la division IT traitement & réservoir de la CGG. Le passage à une capacité de 100 To sur baies de disques, sur le site de Foxboro, en Angleterre, permet une gestion plus fluide des données. Les performances de ces baies sont obtenues avec des disques rapides et une bande passante consolidée de 16 Gbit/s.
Les technologies choisies : Serveurs, commutateurs Fibre Channel et SAN Les principales briques du projet sont composées de serveurs de calcul SGI, Sun et IBM ; de grappes de PC disposant d’une puissance totale de calcul de 7 téraflops ; de commutateurs Fibre Channel de Brocade ; de disques et de contrôleurs LSi ; ainsi que de lecteurs de bandes en technologie LTO. Pour le logiciel, ” nous sommes en cours de discussion avec deux fournisseurs, comme, d’ailleurs, pour les bibliothèques robotisées d’archivage qui hébergeront les cartouches et les dérouleurs LTO “ , note Laurent Delorme. Le réseau de stockage SAN permet de consolider les espaces disques.
L’expérience du NAS de la CGG remonte à plus de sept ans, et l’entreprise en connaît les avantages, ” mais aussi les inconvénients, en particulier les performances relativement faibles et son coût sur le réseau “ , résume-t-il.
Les produits et les fournisseurs retenus : Serveurs Sun E4500 et SGI Origin 2000, PC Dell et IBM, et baies LSi Le stockage des données sur disque est temporaire. Les données sont portées, selon le principe du HSM (Hierarchic storage management) , sur des cartouches de sauvegarde pour une durée de vingt-quatre heures à trois mois. La gestion du stockage des données ” terrain “ s’effectue sur des bases de données fonctionnant sur de petits serveurs (Sun E4500), avec un peu moins de 1 To de disques Raid. Les données intermédiaires sont traitées sur de gros serveurs Numa Unix (SGI Origin 2000), et sur des grappes de PC (Dell et IBM) avec quelques téraoctets de disques. Ces serveurs de calcul accèdent aux données stockées sur des baies de disques Raid de LSi de plusieurs dizaines de téraoctets par des liens Gigabit Ethernet. ” Dès que des systèmes de fichiers distribués sur une architecture SAN seront disponibles, nous adopterons une architecture plus flexible, sans serveurs de stockage spécifiques “ , note Laurent Clerc, architecte des systèmes d’information pour la Business Unit. Les serveurs abritant des bases de données sont accessibles via un réseau Ethernet commuté de type Gigabit Ethernet ou Ethernet 100 Mbit/s ; et les machines recevant des données sismiques, via un réseau dédié (Gigabit ou Hippi, et bientôt Fibre Channel, dans le cadre d’un SAN).
Les projets à court terme : Envisager un portail d’accès Internet sécurisé Actuellement, les robots utilisés sont des Adic AML/J et Abba/E, ainsi que des S1000. Il existe aussi des bibliothèques robotisées de sauvegarde StorageTek (STK) : six modèles Powderhorn forment le parc européen de la CGG. La migration vers les bandes magnétiques LTO conduit l’entreprise à valider les bibliothèques de stockage L700, de STK.
Toutefois, le principal projet consiste à achever la validation et la mise en place d’un système de fichiers migré distribué, sur la base d’un SAN, sur les grands sites de la CGG. ” Il nous faudra contrôler parfaitement le SAN incluant la maîtrise de la couche physique ; le produit DMFS avec sa couche logique contenant le support des serveurs et clients ; et les supports bandes haute densité. Cette étape acquise, ce mode d’accès aux données nous permettra denvisager une évolution vers des serveurs en grappes de très grande taille “ , planifie Laurent Clerc.
Des portails sécurisés
Côté Internet, des portails sécurisés sont en cours de déploiement. Ils autoriseront les clients de la CGG à accéder à des documents relatifs aux projets en cours.
” Nous continuerons à développer cet aspect, même si le volume de données à transférer doit demeurer un frein “ , conclut Laurent Delorme.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp .