Replacer l’internaute au coeur de la gestion de la performance des sites Web 2.0

Par Marie de GAUDEMONT, Responsable Marketing Gomez, Compuware France

Pour séduire et retenir les internautes, et plus encore pour les amener à devenir clients, les entreprises éditrices de boutiques en ligne doivent sans cesse enrichir leur site e-business de nouvelles fonctionnalités. Ici, il s’agira d’offrir à l’internaute visiteur la possibilité de mesurer la popularité de la page qu’il consulte, afin de conforter son choix. Là, le cybermarchand misera sur les offres d’un réseau de partenaires pour convertir l’intention du visiteur en achat effectif. Ou encore ici, l’entreprise s’appuiera sur un service tiers pour analyser finement son audience à un instant T en fonction des tendances observées sur la toile. Dans un nombre croissant de cas, ces fonctionnalités ou ces interactions avec d’autres sites ne sont pas conçues par l’entreprise qui les utilise. Il s’agit au contraire de services mis à disposition par des portails, des moteurs de recherche ou des éditeurs de plateformes web spécialisées (streaming vidéo, analyse de trafic, réseaux sociaux, messagerie instantanée, etc.). Si ces fonctionnalités sont incontestablement indispensables pour assurer la visibilité et la rentabilité des sites, elles n’en posent pas moins des difficultés techniques nouvelles, qui se traduisent par une distorsion parfois importante entre les performances mesurées par l’entreprise et le ressenti effectif de l’utilisateur. D’après une étude récente réalisée par Compuware-Gomez en France sur cinq sites de ventes de voyages en ligne, les écarts de temps de réponses constatés peuvent aller jusqu’à 20 secondes, selon que l’on fait cette mesure sur la dorsale internet ou devant l’ordinateur de l’utilisateur final réel.

Une chaîne de services et d’applications

Il n’est pas nécessaire de chercher bien loin la cause principale de cet écart entre les performances mesurées dans le réseau de l’entreprise et perçues par l’utilisateur final réel. Un simple coup d’œil derrière le rideau suffit. Rares sont aujourd’hui les sites dont les pages web, telles qu’elles sont téléchargées et exécutées par le navigateur de l’utilisateur, ne sont pas un ensemble complexe de scripts, de services distants, de composants multimédias, etc. Dans de nombreux cas, il ne convient plus de parler de pages mais bien d’applications web, tels qu’un panier d’achat, un assistant de personnalisation d’un produit, ou un outil permettant une vue à 360° de votre future voiture, comme si vous en faisiez le tour en magasin. Pour la plupart, ces fonctionnalités séduisantes et attendues par les internautes ont deux caractéristiques communes: d’une part, il s’agit de services extérieurs, auxquels la page Web se contente de faire référence; d’autre part, l’exécution de ces services complexes implique d’en demander toujours plus au navigateur de l’utilisateur. Ce que l’internaute voit comme une application web unifiée est en réalité constitué d’une véritable chaîne de services et de composants logiciels, certains distants, d’autre intégrés à son navigateur Web.

Et c’est de la bonne orchestration de tous ces éléments que va dépendre le ressenti de l’utilisateur en matière de performance, bien plus que du fonctionnement optimal du data center de l’entreprise. En réalité, il faut considérer que de 50 à 80% des facteurs de ralentissement du temps de réponse perçu par l’utilisateur apparaissent dans le « dernier kilomètre » entre la dorsale internet et l’écran de l’ordinateur de l’internaute. Dans ce « dernier kilomètre », il faut évidemment inclure le navigateur Web lui-même. La plupart des entreprises n’ont aujourd’hui aucun moyen de mesurer cette dégradation de la performance dans la phase ultime de livraison de leur service en ligne. Ce qui se passe lorsque l’ensemble des traitements relevant du data center a été effectué échappe complètement aux outils traditionnels de mesure de la performance.

Une perte croissante de visibilité

La compétition croissante que se livrent les éditeurs de navigateurs web pour le grand public n’a fait qu’amplifier cette perte de visibilité des entreprises sur la performance de leurs applications Web. Chaque navigateur traite différemment et plus ou moins rapidement les instructions ou les scripts reçus. Le rythme rapide des mises à jour et d’intégration de nouvelles fonctionnalités accroît le risque de dysfonctionnements qui vont constituer autant de cas particuliers. Si l’on ajoute à cela la multiplication des systèmes d’exploitation et des plateformes matérielles (du traditionnel pc aux smartphones, bornes interactives, etc.), on ne peut qu’être frappé par la complexité et l’immensité de la tâche qui incombe en théorie à l’entreprise éditrice d’un site de commerce en ligne. Dans la pratique, l’entreprise devrait être en mesure d’élaborer une stratégie de développement, de test et d’optimisation qui prendrait en compte toutes les évolutions et les cas d’utilisation susceptibles d’influer sur l’image ou la rentabilité du site. Et elle devrait aussi pouvoir mesurer que ses partenaires ou les fournisseurs de services intégrés à sa chaîne d’applications Web, exercent un contrôle tout aussi rigoureux. Avec les outils traditionnels de mesure de la performance web, l’entreprise est confrontée à une perte croissante de visibilité.

Analyser la performance réelle

Pour qu’une telle approche puisse être mise en oeuvre, l’entreprise doit recouvrer la pleine visibilité sur la performance expérimentée par l’utilisateur final réel. Il s’agit d’opérer un renversement de perspective, assez simple à réaliser finalement car de nouveaux outils existent, et qui plus est, très facile d’emploi et très accessibles. Les dispositifs traditionnels de mesure de la performance réalisent un échantillon « in vitro » et en déduisent un comportement moyen sensé se reproduire à l’identique dans tous les cas de figure. Devant la multiplicité des interactions possibles, il faut au contraire se donner les moyens d’expérimenter en collectant des données de performance ressentie produites par de véritables utilisateurs, et non par des agents logiciels qui suivraient un scénario préétabli. De cette façon, l’entreprise est assurée de disposer de la diversité des cas d’utilisation dont elle a besoin pour définir les priorités, bâtir un plan d’action, et interpeller ses fournisseurs de services sur la performance réelle des composants intégrés à sa chaîne d’applications Web. En replaçant l’internaute au centre de sa stratégie de gestion de la performance Web, l’entreprise s’assure non seulement une plus grande réactivité face aux évolutions technologiques, une meilleure image de marque, mais surtout, un atout concurrentiel directement convertible en chiffre d’affaires.