Pour gérer vos consentements :
Actualités: TENDANCES

La gestion du mainframe dans un monde informatique de plus en plus complexe.

Par Véronique Dufour-Thery, South Europe Regional Director pour Compuware Mainframe.

L’informatique fait partie de ces mondes qui peuvent subir des transformations spectaculaires en très peu de temps. Malgré les nombreuses innovations, le mainframe s’inscrit toujours au cœur de la stratégie de l’entreprise et devrait conserver sa place pendant de nombreuses années encore. Mais qui dit grande importance, dit grandes responsabilités. Notre dépendance à la technologie est conséquente, nos attentes à l’égard du système ne cessent de s’accroître, et la moindre panne peut entraîner des dommages irréparables. Une tâche d’autant plus lourde à porter pour le mainframe qu’il reste un mystère pour beaucoup ; les inefficacités de ce dernier ne sont pas toujours détectées, les coûts augmentent et les problèmes rencontrés sont plus longs à résoudre.

Malgré un rôle bien établi au sein des Systèmes d’Information, même le plus puissant des mainframes a dû s’adapter et subir des transformations pour survivre dans le nouveau monde moderne. C’est un fait – il ne doit plus se limiter à délivrer des applications internes à des employés patients et acceptant d’attendre « le temps qu’il faudra » pour accéder à une application ou obtenir les données dont ils ont besoin, mais aussi distribuer des applications s’adressant à des internautes. En raison de la consumérisation de l’informatique qui fait penser à chacun qu’il est un expert informatique, il doit faire face à des utilisateurs de plus en plus exigeants. La gestion des performances est donc plus importante que jamais.

Si le mainframe doit sans cesse atteindre des records de rapidité, la complexité grandissante de l’environnement informatique ne facilite en rien sa gestion. Nous sommes entrés dans une ère où l’informatique est ultra-distribuée : l’arrivée des terminaux mobiles, du cloud, de la virtualisation et l’explosion des nouvelles applications, des équipements et des services de données obligent le mainframe à s’intégrer avec toute une gamme de technologies qui n’existaient pas quand le Mainframe a été créé. Les performances du cloud, de la virtualisation, et des services et applications mobiles étant intrinsèquement liées au mainframe, le moindre problème survenant au cœur du système peut avoir des répercussions à tous les niveaux de l’infrastructure. Face à l’augmentation de la consommation de MIPS et aux évolutions technologiques, le mainframe doit garantir des performances supérieures.

Plus les liens sont nombreux sur la chaîne de distribution des applications, plus les risques de défaillances sont grands. L’intégration d’une nouvelle application peut donc présenter un certain nombre de risques, et le moindre changement avoir des répercussions sur l’environnement informatique tout entier, jusqu’au mainframe. Par ailleurs, nombre d’entreprises se basent encore sur des « moyennes » pour identifier les problèmes de performance et n’en ont pas toujours connaissance avant que les clients ne se plaignent. Le processus de résolution peut donc s’avérer extrêmement difficile et long, surtout lorsqu’il s’agit d’identifier les causes du problème et d’isoler l’endroit où il s’est produit. Il peut s’écouler des mois avant que les équipes ne parviennent à comprendre le dysfonctionnement d’un système. Cette mobilisation des ressources et des compétences est non seulement coûteuse mais constitue un véritable frein à l’innovation.

 

L’informatique est intégrée…pourquoi pas les équipes ?

La fusion des anciens et nouveaux systèmes présente des avantages à plusieurs niveaux : elle favorise l’agilité et l’innovation, tout en conservant un cœur de Système d’Information solide. Les développeurs originels des applications mainframe ont laissé leur place à une nouvelle génération de programmeurs habitués à utiliser des kits SDK modernes, créant ainsi un véritable écart de compétences.

La culture du cloisonnement est encore bien ancrée dans les entreprises, avec une personne chargée du développement, une autre du réseau et une autre chargée du mainframe, etc. Si cette stratégie peut sembler intéressante d’un point de vue pratique, le nouveau monde informatique qui est par nature intégré, requiert une équipe tout aussi unifiée et intégrée pour le gérer.

Ces services cloisonnés entraînent toutes sortes de problèmes et empêchent les équipes de prendre du recul et d’avoir une vue d’ensemble de la situation. Cette visibilité limitée ne permet pas de comprendre rapidement les interactions qui ont lieu en arrière-plan entre les différentes technologies. Par exemple, si une application distribuée a été développée de manière à générer de multiples transactions au niveau du mainframe, les coûts vont augmenter. Si un changement intervient dans les couches serveur, cela pourra ralentir le mainframe. Si certains problèmes sont faciles à repérer, d’autres sont en revanche plus subtils, comme par exemple une hausse de la consommation de MIPS.

Ce cloisonnement engendre également un problème au niveau de la possession. Lorsque les équipes sont divisées, elles ont tendance à communiquer sur un mode « binaire ». Ainsi, au lieu de chercher ensemble une solution, certaines personnes risquent de « rejeter la responsabilité » sur d’autres, ralentissant inévitablement le processus de résolution. Ce manque de communication et de partage de connaissances est une véritable bombe à retardement surtout quand on sait que les compétences autour du mainframe tendent à s’épuiser.

Que feront les entreprises lorsqu’elles n’auront plus les ressources requises ?

Moderniser le mainframe

Le mainframe est sans conteste beaucoup plus complexe qu’auparavant. Nombre d’entreprises ne se sont pas encore adaptées aux changements et continuent d’utiliser des processus archaïques pour gérer les performances. Si la gestion des performances des applications est indispensable dans l’environnement distribué, le mainframe est considéré comme une boîte noire, obligeant les équipes informatiques à avancer à l’aveugle et à résoudre les problèmes sans presque aucune visibilité. Le mainframe étant désormais utilisé comme un levier pour supporter les applications distribuées, les entreprises doivent adopter une approche innovante basée sur le suivi continu des transactions à travers les différentes plates-formes..

En associant une visibilité de bout en bout de l’utilisateur jusqu’au mainframe à un suivi continu en temps réel des transactions applicatives, les entreprises vont pouvoir faire le pont entre les différents silos des organisations informatiques. En procédant à une analyse approfondie des « root causes » des problèmes, elles pourront également améliorer l’efficacité du code, le temps de réponse des transactions et la capacité de traitement tout en simplifiant l’identification et l’optimisation des appels aux bases de données consommateurs en ressources. Toutes ces mesures contribueront à diminuer la consommation MIPS et à accélérer la résolution des problèmes. L’adoption d’une approche proactive de la gestion des performances applicatives les aidera enfin à prévenir les problèmes et à corriger à temps les inefficacités

Gérard Clech

Articles récents

« Les partenaires qui investissent dans Juniper voient leurs ventes augmenter ! » Juniper présente les évolutions de son programme partenaires.

Juniper présente une nouvelle évolution majeure de son programme mondial : Le Juniper Partner Advantage…

1 jour années

[Agenda] « Partager les bonnes pratiques de nos partenaires Cyber » : Le distributeur Cris Réseaux donne RDV aux MSPs & ESN à Strasbourg le 23 mai.

Le grossiste Cris Réseau réunit ses partenaires revendeurs et éditeurs le jeudi 23 mai prochain…

1 jour années

[Marché] PNY Distributeur Nvidia de l’année pour la 3ème année consécutive

PNY Technologies, fournisseur global de composants et de solutions de stockage pour les marchés de…

3 jours années

« Proposer aux revendeurs des PC reconditionnés, aux standards de qualité HP » TD SYNNEX et HP présentent la nouvelle gamme Revitalize

Avec sa gamme Revitalize, HP entend aider ses partenaires et les clients finaux à adopter…

3 jours années

« Notre engagement envers les MSPs va au-delà de la technologie » : L’éditeur Centreon lance son programme partenaires dédié aux MSPs

Éditeur « Partner-first », Centreon étend son programme partenaires « ON » avec l'ambition d'accompagner…

4 jours années

[Nomination] Stordata annonce la nomination d’un nouveau Directeur Général en France

Stordata, spécialiste des solutions de gestion de données et de la transformation SI, fait évoluer…

4 jours années