2011: l’année du stockage efficace

Stratégies Channel

Personne n’ignore que l’économie a changé depuis la crise financière de 2008. Il n’est pas surprenant que les directeurs informatiques restent prudents face à aux prémices d’une reprise. Et même s’il est possible que la France soit aujourd’hui sur la voie pour sortir lentement de la récession, il est clair que rien ne redeviendra « comme avant ».

Par Andy Hardy, directeur général des ventes internationales chez Dell Compellent

La situation économique continue donc de modifier considérablement les priorités de l’informatique : si la quantité de données critiques ne cesse de croître rapidement, les budgets, eux, sont de plus en plus serrés. Ajoutez à cela la perspective de voir bon nombre de centres de données bientôt manquer d’espace et de capacité d’alimentation et le scénario qui se profile s’annonce alors particulièrement difficile pour les entreprises.

Il est donc temps, pour elles, de faire face à ces difficultés et de chercher comment devenir plus efficaces. Un bon point de départ est d’éliminer la complexité typique des systèmes propriétaires de stockage. C’est ce que permettent les nouvelles solutions comme la virtualisation du stockage, le thin provisioning et l’automatisation de stockage multi niveau qui apportent, en plus de l’innovation technique, une grande facilité d’usage et une réduction significative des coûts.

La virtualisation du stockage crée un pool partagé qui englobe tous les disques du système, ce qui consolide les ressources, réduit le coût des disques et renforce la souplesse globale de l’infrastructure. Elle a permis d’amplifier les avantages issus de la virtualisation de serveurs, mais, dans bien des cas, elle s’est également avérée être le cœur même de l’infrastructure informatique virtualisée. De son côté, le thin provisioning améliore le stockage et la circulation des données dans l’entreprise. L’administrateur peut réserver initialement un volume virtuel qui n’utilisera aucun espace disque avant que les données soient réellement écrites. Dans bien des cas, ceci permet de récupérer jusqu’à 60 % de l’espace disque, correspondant à une capacité réservée à l’avance mais finalement jamais utilisée.

Dans le cas du stockage multi niveau automatisé, les données sont gérées activement au niveau du bloc : elles sont classées dynamiquement et déplacées automatiquement d’une couche à l’autre en fonction de leur utilisation. Ceci évite toute intervention manuelle et permet ainsi dans la plupart des cas de réaliser un gain de temps notable.

Les données sont d’abord écrites en couche 1, sur des disques durs hautes performances SDD. Lorsque la fréquence des accès diminue, elles sont migrées en couche 2 vers des disques durs Fibre Channel ou SAS à 15 000 tr/mn. Enfin, lorsqu’elles sont inactives, elles sont déplacées vers la couche 3, sur des disques durs SAS ou SATA de grande capacité. Comme la plupart des données d’une entreprise sont inactives, l’automatisation du stockage multi niveau réduit en moyenne de 80 % les dépenses relatives aux disques. Toutefois, quelle que soit la couche où sont stockées les données, elles restent immédiatement disponibles pour les utilisateurs.

Ces trois solutions, qui améliorent considérablement l’efficacité du stockage, diminuent aussi significativement l’impact carbone : elles réduisent en effet la quantité d’équipements nécessaires, et donc les besoins énergétiques requis pour l’alimentation et le refroidissement.

Nous entrons dans une nouvelle situation économique, et il est clair que la récession rappelle aux entreprises qu’elles doivent reconsidérer leurs solutions de stockage. Elles doivent comprendre qu’une solution capable d’évoluer pour s’adapter à leur activité au cours des dix prochaines années, représente la façon la plus intelligente de survivre.