Ne laissons pas le stockage VDI se transformer en film d’horreur!

La virtualisation du poste de travail tente beaucoup les responsables IT. A juste titre. Mais cela peut mal se passer… avertit Evan Powell, dg de Nexanta (*)

Par Evan Powell, Directeur Général de Nexanta

À première vue, la virtualisation du poste de travail ou VDI (virtual desktop infrastructure) apparaît comme une excellente solution pour de nombreuses entreprises qui cherchent à gérer et maintenir leur infrastructure de PC. Qui n’apprécierait pas une solution qui permette de centraliser l’installation, la mise à jour, la maintenance et la sécurité d’un même système d’exploitation pour tous les ordinateurs et PC portables ?

Seulement, voilà: les choses sont rarement aussi simples qu’on ne les avait envisagées, surtout en informatique. Très souvent, le fait de simplifier d’un côté complique de l’autre. Un peu comme dans les films d’horreur, lorsque le héros s’engouffre dans une pièce et ferme la porte derrière lui pour échapper à ce qui le poursuit… et se retrouve confronté à pire encore. C’est peut-être ce qui vous attend chaque fois qu’on vous vante les avantages d’un projet de VDI.
Positivons: que prendre en considération?

Ok, tout n’est pas aussi négatif ! Mais il faut prendre en compte quelques points et les gérer, avant de se lancer dans la mise en place d’une solution de VDI. Et le stockage est l’un des sujets les plus sérieux. En effet, peut-être l’ignoriez-vous, mais pour chaque euro dépensé en VDI, il faut débourser 3 à 7 fois plus en stockage. Là, on commence à se poser des questions.

Pourquoi donc ? Le fait de consolider des centaines d’ordinateurs de bureaux sur un seul serveur oblige à déplacer sur ce même serveur toute la puissance de traitement et tout le stockage de ces PC. Ceci peut engendrer une demande très élevée en termes d’entrées-sorties par seconde ((IOPS);  cela peut réduire les performances et conduire à des problèmes de “boot storm”. Il est donc important de comprendre que les besoins en stockage ne se mesurent pas uniquement en termes de quantité (gigaoctets, téraoctets, etc.) mais également en termes de qualité, au niveau des IOPS.

 

Pour un système de stockage qui doit gérer les IOPS de centaines ou de milliers d’ordinateurs VDI sous Windows, la barre est ainsi placée très haut ! Or, à cause des boot storms, les ordinateurs virtuels peuvent mettre, par exemple, de longues minutes à démarrer.

 

Ceci met en évidence plusieurs différences entre la virtualisation de serveurs et celle de postes de travail. Dans le premier cas, les pics de charge sont, en général, répartis aléatoirement entre les applications. Dans le second, ils sont souvent concomitants. Alors que l’impact sur les performances des fluctuations des IOPS reste limité dans le cas de la virtualisation de serveur, il peut avoir un effet particulièrement négatif pour les utilisateurs d’une infrastructure VDI.

Dans une infrastructure classique, le stockage a une charge plutôt séquentielle avec un rapport lecture/écriture de l’ordre de 80/20. La présence de nombreux postes de travail en VDI rend cette charge aléatoire, avec un rapport lecture/écriture de 40/60 (voire pire). Ceci crée inexorablement de nouveaux défis tant au niveau des matériels que des logiciels de stockage.

 

Comment faire face aux déluges de connexions ?

Une façon de contourner ce problème des « déluges » de connexions et de démarrages est de mettre en cache séparément les opérations de lecture et d’écriture sur mémoire Flash (disques SSD), afin d’accélérer l’ensemble du processus dans le cadre d’un stockage en couches.

Dans certains cas, il est possible pour une entreprise d’utiliser le stockage en place pour soutenir une infrastructure VDI. On considère toutefois qu’il vaut mieux envisager une solution capable de dépasser les problèmes de performances et de coût, en utilisant des SSD pour améliorer les performances en lecture/écriture, normaliser les mode d’E-S et optimiser le rapport performances/coût d’un environnement de VDI.

Le meilleur moyen d’éviter les mauvaises surprises reste de s’assurer de bien planifier la mise en œuvre de la VDI en dimensionnant correctement le stockage nécessaire. La planification et la gestion de la capacité sont une donnée importante et les technologies de compression en ligne, de déduplication de données et de thin provisioning peuvent contribuer à lisser les coûts du stockage VDI.

Bon nombre des difficultés associées à la VDI et au stockage nécessaire pour la soutenir sont désormais identifiées et quelques fournisseurs proposent des solutions pour contribuer à gérer tout problème et autre goulet d’étranglement pouvant découler du passage à la virtualisation des postes de travail.

Ce film d’horreur pourrait donc connaître une fin heureuse et la prochaine fois que le héros franchit la porte fatidique et la referme derrière lui, il pourra alors se retrouver face à une situation nettement plus confortable.

__________

(*) Evan Powell est CEO de Nexenta Systems Inc., société spécialisée dans les solutions de stockage de données en environnement Open Source. En 2004, deux de ses fondateurs, Alex Aizman et Dmitry Yusupov, écrivaient l’essentiel du code de la pile iSCSI pour le stockage de données, puis développèrent autour d’eux la communauté Open iSCSI (http://www.open-iscsi.org). En 2005, ils  rapprochèrent des composants de Linux et d’OpenSolaris en rajoutant du code ‘Open Storage’ ce qui les conduisit à créer une start-up, Nexenta, à Santa-Clara (Californie). L’actuelle plate-forme de référence de Nexenta s’appelle NexentaStor, un système d’exploitation ouvert et original, a débuté en 2008.  En France, la firme est distribuée par Alyseo, spécialiste  des solutions de stockage.

 

TAGS ASSOCIÉS