La virtualisation selon Stéphane Dutot, chef de produit d’Internet Fr

Stratégies Channel

Depuis quelques années, une nouvelle technologie révolutionne l’informatique : la virtualisation. Désormais, ce nouveau marché ne connaît pas la crise. En effet, selon les chiffres du Gartner, ce marché devrait croître de 43 % en 2009. Il est boosté par une forte demande sur les outils de gestion des serveurs virtualisés et par une explosion des postes clients.
Internet Fr, l’un des principaux acteurs de l’hébergement infogéré en France, a développé des offres stratégiques destinées à répondre à ses clients en matière de virtualisation. Stéphane Dutot, Chef de produit d’Internet Fr nous explique sa vision de l’hébergement et les enjeux majeurs qu’engendre cette nouvelle technologie.

Par Stéphane Dutot, chef de produit d’Internet Fr

La virtualisation : un marché en pleine expansion !

Comme le souligne une étude Forrester « The State Of Emerging Enterprise Hardware Trends : 2008 To 2009 » de février 2009, ce marché bien que récent, est en pleine expansion. Cette technologie a, en effet, commencé à émerger il y a seulement 3 ans pour les environnements x86. Actuellement, il est détenu principalement par VMware, acteur historique ayant réussi à mettre un grand nombre d’outils à disposition de ses utilisateurs avec de nombreuses fonctionnalités. Toutefois, le marché devrait se rééquilibrer d’ici 3 ans avec l’arrivée de nouveaux acteurs grâce aux solutions basées sur des solutions Microsoft, Citrix, Xen, ou Sun.

Depuis quelques mois, le Cloud Computing est entré dans la sphère de l’hébergement. En effet, cette nouvelle technologie fonctionne sur le principe suivant : des applications distribuées sont hébergées au sein de data centers répartis dans le monde. Pour l’instant, aucun acteur ne dispose d’une vision globale claire même si Microsoft vient de sortir une plateforme sur laquelle des testeurs peuvent installer des applications, même si les offres d’Amazone EC2 et de Google sont d’ores et déjà disponibles.

Les outils proposés sont pour la plupart fiables et de qualité. Dans le domaine de l’hébergement où se sont essentiellement les outils de virtualisation serveurs qui sont utilisés, le marché de la virtualisation est assez stable. La technologie est, en effet, maîtrisée. Les moteurs de virtualisation sont matures. On constate toutefois, qu’il existe des différences entre les acteurs du marché : à la fois sur les outils de gestion tels que les consoles d’administration, les fonctionnalités offertes et le support des éditeurs de ces moteurs. Ces trois aspects sont fondamentaux en plus du coût pour pouvoir faire un choix.

 

Pourquoi faut-il virtualiser ?

Avec la virtualisation, un DSI peut optimiser l’usage de ses ressources informatiques soit en déportant le poste utilisateur vers des serveurs, grâce à la notion de client léger, soit optimiser sa production informatique en mutualisant les capacités de calcul, de stockage, de mémoire afin de réduire les coûts et augmenter la qualité de service offerte.
En matière d’hébergement, la virtualisation a de nombreux avantages tels que :
– la consolidation des serveurs : il est possible de mutualiser les ressources processeurs, mémoires et de réduire les matériels pour les héberger.
– la cohabitation de divers systèmes d’exploitation sur un même serveur, particulièrement utile pour concentrer sur un serveur une application qui est le fruit de l’intégration de technologies différentes.
– l’augmentation de la qualité de service de l’infrastructure : grâce à un cluster de virtualisation, il est possible de gérer la défaillance d’équipements matériels, de redémarrer automatiquement les machines virtuelles sur d’autres serveurs du cluster.
– la flexibilité pour évoluer au rythme du marché : en très peu de temps, un DSI peut mettre en place une chaine applicative complètement basée sur des serveurs virtuels, pour intégrer une nouvelle application, une nouvelle fonctionnalité ou pour tester une nouvelle version mise à jour du socle système ou de l’applicatif. Cette problématique est réelle pour les sociétés appartenant au secteur du e-business.
Pour cela, il est nécessaire d’avoir une architecture adéquate en s’affranchissant du nombre de serveurs physiques. Les développeurs et les interlocuteurs métiers peuvent ainsi tester les applications au préalable sur la plateforme cible et réelle en travaillant sur une infrastructure virtuelle entraînant une forte réduction des coûts et un gain de temps en phase de production. Cela se traduit pour les hébergeurs et pour les entreprises par une grande vitesse de déploiement, des économies fortes, en termes de coût matériel, auxquelles s’ajoutent des fonctionnalités de supervision.
– la mise en place de plan de reprise d’activité (PRA) : lorsque l’on travaille avec une solution de stockage centralisée telle que des baies SAN, un DSI peut mettre en place des plans de reprises d’activités plus simplement en répliquant les données présentes sur les baies de stockage sur un autre site en temps réel ou en désynchronisé. L’infrastructure peut ainsi être redémarrée en toute transparence pour le client avec un temps de reprise beaucoup plus faible qu’avec une solution traditionnelle. A cela s’ajoute des coûts bien plus abordables avec des problématiques d’exploitation moindres.

Toutefois, l’un des facteurs limitant constaté est la confiance dans l’hébergement des applications critiques au sein d’environnement « dématérialisé ». Les processus de gestion et les compétences des équipes d’exploitation de ces environnements doivent garantir leurs bons fonctionnements et l’adéquation des infrastructures avec la qualité de service attendue et les besoins des applications hébergées.

 

Gestion de la virtualisation pour les DSI

On constate que des difficultés peuvent survenir sur différents niveaux notamment sur la couche de virtualisation. Il faut bien choisir ses outils et pour faire la bonne sélection, il y a quelques préconisations et recommandations préalables à prendre.

Il est en effet impératif de choisir un produit ayant un bon niveau de support de l’éditeur et de privilégier une solution de virtualisation reconnue sur le marché et par les éditeurs des systèmes d’exploitation et applications tierces afin qu’ils acceptent de faire le support.

Pour les sociétés ayant décidé de déployer des outils de virtualisation, il est important d’avoir une infrastructure homogène avec des normes et des standards d’exploitation et de déploiement qui soient suffisamment établies. Cela est essentiel pour ne pas avoir des problématiques de maintien en condition opérationnel, de configuration et d’évolution. A partir de là, on limite beaucoup les frais d’exploitation et le déploiement est accéléré.

Souvent, nous avons tendance à oublier le facteur humain qui est souvent déterminant avec la virtualisation. La facilité de déploiement et sa rapidité font oublier fréquemment les coûts de licences et d’exploitation. Il faut, en effet, pouvoir l’intégrer et le maîtriser sans succomber à la facilité de déploiement. Pour y remédier, il faut s’équiper de systèmes de gestion et de processus permettant de gérer en interne ses ressources de manière modérée.

Le maintien des compétences en interne pour les outils gratuits et payant est
également une charge majeure pour les directions informatiques qui doivent être capables de gérer les infrastructures virtuelles et d’avoir les compétences en interne. Pour cela, il est nécessaire d’avoir une politique d’utilisation intelligente.

 

Les évolutions à venir sur le marché de la virtualisation

Dans le domaine de l’hébergement, les principaux avantages sont la flexibilité et la rapidité de déploiement. Toutefois, pour les petites entreprises, les hébergeurs sont capables de mettre en place des environnements de pré-production et d’intégration qui soient basés sur les mêmes périmètres fonctionnels que les environnements de production. Il s’agit d’une réelle révolution, deux ans auparavant peu d’entreprises s’offraient un environnement de pré-production qui soit a périmètre iso-fonctionnel pour
leurs applications Web hébergées.

La virtualisation est en soit une réelle révolution. La technologie est actuellement stable et fonctionne. Désormais les entreprises sont dans l’applicatif. Quelques équipementiers réseaux sont capables d’interagir avec une solution de virtualisation pour arrêter ou redémarrer des machines virtuelles et des machines physiques. Il s’agit d’un effet de la virtualisation qui permet d’arrêter ou de démarrer des parties complètes ou des data centers entiers en fonction de la demande utilisateurs. Du point de vue énergétique, écologique et économique, il s’agit d’une réelle révolution au moment où la protection de l’environnement est devenue primordiale.

Jusqu’à peu, les acteurs de l’hébergement et les constructeurs réfléchissaient à la manière de concentrer les applications sur des serveurs physiques pour faire des économies de matière. Aujourd’hui, la problématique est totalement différente notamment pour sécuriser les données. L’objectif est de répartir, cloisonner les applications et les données au maximum sur différents serveurs virtuels et, fermes de serveurs de virtualisation afin de maitriser les risques et plus particulièrement  l’intrusion, les failles applicatives et interruption de service. La virtualisation permet cela très rapidement et en toute simplicité.

La virtualisation est-elle transparente?

La virtualisation est réellement transparente pour les serveurs mais pas obligatoirement pour les directions informatiques qui ont besoin de gérer ces systèmes en mettant en œuvre des processus de gestion et des outils de suivi de capacité.

La virtualisation apporte de tels avantages que cette technologie se fait complètement « oublier ». Il est alors impératif d’avoir de nombreux outils pour anticiper toutes les évolutions des infrastructures. Il est, en effet, impératif d’avoir une vision claire de son architecture et d’anticiper la gestion de la capacité. Celle-ci doit être augmentée et pour cela les serveurs doivent être upgradés pour gérer plus d’utilisateurs et gérer les applications nécessitant plus de ressources. Grâce à la gestion avec un plan de charge dans le temps ou capacity planning, on peut intégrer les variations saisonnières d’activités de l’entreprise, l’intégration de nouvelles applications…

En résumé, la virtualisation est une couche d’abstraction du matériel c’est-à-dire qu’elle permet à la machine virtuelle hébergée d’oublier le serveur physique. On pourrait imaginer de s’affranchir des spécificités des constructeurs de matériels pour les serveurs en plaçant une couche de virtualisation obligatoirement sur l’ensemble de ceux-ci, quitte à mettre une seule machine par serveur. Cela permet de changer de matériel sans aucune installation d’un serveur complet afin d’en avoir un plus important. Ce type d’évolution offre des avantages de coût et de rapidité sans effet de migration car il s’agirait d’un unique déplacement de machine virtuelle.

Pour aller de l’avant, le cloud computing s’inscrit dans une suite logique de la virtualisation, les aspects sécurités, législatifs, maitrise des coûts, des environnements sont à prendre en compte. Il est essentiel d’être attentif à la localisation où sont hébergées les applications, au besoin intrasec de l’applicatif,  les temps de transit réseau pouvant être pénalisant pour l’utilisation des applicatifs et l’expérience utilisateur. Ces aspects offrent une place stratégique pour les hébergeurs comme Internet Fr, les DSI grands comptes ou GIE souhaitant mutualiser les ressources entre plusieurs entités en prenant en compte de l’ensemble de ses contraintes.