Data centers : raisonner en termes de trafic !

Stratégies Channel

Un avis d’expert signé par le Directeur Marketing d’InfoVista qui explique combien il est important en la matière d’anticiper plutôt que de subir à posteriori…

Par Marc Lippe, Directeur Marketing EMEA – InfoVista.

Les entreprises font face à trois tendances principales – la consolidation des datacenters, la multiplication des nouvelles applications, et l’optimisation du WAN. Le défi consiste à les gérer simultanément, et ce, sans détériorer les performances des applications utilisées par les utilisateurs finaux. Par conséquent, le développement de solutions pour gérer la performance devient un enjeu majeur.

Combinée à une analyse statistique avancée des flux applicatifs, la capacité à obtenir en temps réel des données exploitables sur la performance des applications permet de s’assurer de la qualité de service (QoS). La satisfaction des utilisateurs peut ainsi être garantie et la mise en place de nouveaux services en sera  facilitée.

Les facteurs clés de la performance des applications

Une gestion de la performance réussie doit permettre de collecter des données pertinentes et exploitables pour l’entreprise.

La meilleure façon de s’en assurer consiste à s’accorder sur des indicateurs de référence, sorte de points de repère pour mesurer l’évolution du trafic réseau et de l’usage des applications. Il devient alors plus facile de détecter une utilisation inhabituelle ou une anomalie sur le réseau. Ce fonctionnement est la clé d’une gestion de la performance des applications réussie. On retrouve là un fonctionnement proche de celui que les entreprises aimeraient utiliser dans leur approche de l’informatique décisionnelle. En effet, en raison du grand nombre de données à traiter, appliquer à la gestion de la performance des applications les techniques et les outils utilisés pour l’informatique décisionnelle s’avère efficace.

Une fois les données collectées et les indicateurs de référence établis, il est possible de répondre à une question critique : est-ce que le réseau d’entreprise a été optimisé à la fois en termes de capacité et de QoS ? Lorsqu’une nouvelle application, comme la VoIP ou la vidéo, doit être mise en œuvre, il devient plus simple et plus rapide de déterminer si la capacité du réseau est suffisante pour une implémentation immédiate et comment il va être possible d’optimiser le QoS pour en assurer la disponibilité et les performances.

L’entreprise raisonne alors plutôt en termes de trafic lié qu’en termes capacité de son infrastructure. Elle peut désormais prévoir sa capacité réseau et les mécanismes de QoS basés sur l’utilisation des applications et de la  performance – un moyen bien plus rentable de s’adapter à la croissance que de dépenser plus en investissant dans des capacités plus importantes sans données précises sur les besoins réels.

Un autre avantage, non négligeable réside dans une gestion plus rapide des problèmes. Lorsqu’un utilisateur ou un groupe d’utilisateurs se plaint de la lenteur d’une application en réseau, toutes les données de trafic collectées participent à un dépannage rapide.

Autre avantage de cette gestion : la rapidité et la précision du diagnostic. Prenons l’exemple suivant : un utilisateur final se plaint au service client de son fournisseur de services en ligne (MSP) ou au service informatique de son entreprise – que son PC est lent ou que la qualité de la téléphonie sur IP est mauvaise. Si son interlocuteur n’a pas recours à la gestion de la performance des applications, les discussions quant à l’origine du problème peuvent être sans fin car de nombreux éléments et systèmes d’administration isolés peuvent fournir des informations incomplètes et contradictoires. Une bonne gestion de la performance des applications permet de passer outre et de cibler directement la source potentielle du problème.

Anticiper et non pas réagir…

En combinant ces éléments – données exploitables, création de références, gestion rapide et efficace des problèmes –  la gestion de la performance des applications permet de satisfaire les utilisateurs finaux, même pendant les périodes de consolidation des datacenters et de déploiement de nouveaux services sur le réseau. A cela vient s’ajouter un autre la capacité d’agir par anticipation. La possibilité de comparer en temps réel la performance d’une application et le trafic réseau à une situation de référence implique qu’il n’est plus nécessaire d’attendre d’avoir atteint un seuil critique pour agir.

Dans une gestion réactive traditionnelle, un seuil définit un niveau de performance inacceptable. Le problème est d’arriver à en déterminer la valeur. Si elle est trop élevée, le système sera inopérant avant d’avoir atteint ce seuil. Si elle est trop basse, des alertes peuvent submerger les opérateurs réseaux, qui finiront par les ignorer ou les désactiver. En revanche, si la valeur du seuil définit un niveau de performance normal, et que des points de repère acceptables sont établis, il devient possible d’identifier les irrégularités et d’en déterminer la cause de façon proactive. De tels systèmes peuvent établir des références pour une journée, un jour du mois ou un mois de l’année. Le trafic réseau suit habituellement des cycles saisonniers, et les systèmes par anticipation sont excellents pour intégrer ces variations saisonnières dans leur modèle.

 

Améliorations à venir

Au fur et à mesure que nous avançons dans le développement de ce type de solutions, il devient essentiel que d’englober toutes les variantes des applications sur IP. Mesurer la performance et la qualité d’un service de VoIP est une chose, mesurer la performance et la qualité d’un service vidéo en est une autre. Il va donc être nécessaire de mettre en place des indicateurs de performance différenciés et de les agréger sur des tableaux de bord consolidés plutôt que de devoir en gérer un trop grand nombre, par type d’applications.

L’importance de la gestion de la performance des applications continuera à croître. Répondre aux attentes des utilisateurs en termes de performance est une tâche sans fin puisque le nombre de services proposés et le nombre d’utilisateurs sont en constance évolution, et que le rythme des changements d’organisation des entreprises s’accélère. Dépenser de l’argent uniquement pour doter l’infrastructure de capacités supplémentaires – de la bande passante, des serveurs et des ports de commutation – et embaucher du personnel pour gérer la structure et en assurer le support, n’est plus à l’ordre du jour. En lieu et place, la gestion intelligente et efficace de la performance des applications, basées sur des analyses précises des flux IP transitant sur l’infrastructure, permettra à moindre coût une meilleure utilisation des ressources, une planification et une résolution efficaces des problèmes ainsi qu’une plus grande flexibilité pour satisfaire les besoins liés à ces activités.