Pour gérer vos consentements :
Actualités: TENDANCES

Sites Web et applications tierces : garder le contrôle des performances

Isabelle Albanese Compuware

Par Isabelle Albanese, Consultant APM Compuware

 

De la mutualisation des ressources…

Un site web est aujourd’hui une application beaucoup plus complexe qu’il n’y paraît au premier abord : le fond est désormais séparé de la forme et provient de plus en plus fréquemment de sources externes. Prenons l’exemple d’un site de e-commerce lambda. L’achat d’un produit en ligne, aussi simple soit-il, implique nombre de fonctionnalités qui ne sont pas directement issues de l’éditeur du site lui-même : un bloc « Fan » Facebook, une vidéo de promotion, un plan de localisation des magasins, une page de paiement, un bandeau publicitaire… Autant d’outils devenus monnaie courante qui cachent pourtant une structure complexe dans laquelle interviennent plusieurs parties prenantes externes. Sans parler des sites comparateurs de prix ou de réservation de billets d’avion dont les données proviennent  exclusivement d’applications tierces.

En parallèle, avec l’avènement du fameux « Cloud », ces mêmes données peuvent désormais être stockées sur des serveurs mutualisés. Ainsi, des études montrent que sur un site web classique, plus de dix serveurs de données différents interviennent dans l’exécution d’une transaction, et la plupart d’entre eux proviennent de services cloud tiers. En d’autres termes, les éditeurs ne maîtrisent aujourd’hui qu’une infime partie de ce qui se passe sur leur site !

Cette dispersion des sources a toutefois du bon. Elle permet tout d’abord de diversifier et d’enrichir de façon notoire les services offerts par un site en faisant appel aux savoir-faire d’organismes dont c’est le cœur de métier (Google Maps pour les plans de localisation, YouTube ou Dailymotion pour les vidéos…). Concernant le Cloud, c’est aussi une formidable opportunité pour les éditeurs, d’une part de mutualiser les coûts en partageant leur hébergement, d’autre part de s’affranchir de toute la gestion de l’infrastructure sous-jacente à leur application. Un gain de temps et d’argent considérable qui leur permet de se concentrer d’abord sur leur activité.

 

… à la ventilation des performances

Mais l’intervention de tierces parties, quelles qu’elles soient, dans une application web pose également la question de la maîtrise des données qui sont transmises, mais aussi et surtout de la qualité et de la rapidité avec lesquelles elles le sont. Selon le baromètre 2012 des directions informatiques de T-Systems[1], l’un des principaux freins au Cloud Computing est la « perte de contrôle sur les données confiées à un tiers » (pour 47,3% des sondés). C’est le revers de la médaille : l’incapacité des éditeurs de sites à contrôler les performances des services issus de parties prenantes de plus en plus éparpillées.

En ne maîtrisant pas les performances des tierces parties intégrées à son site, on s’expose à des conséquences potentiellement désastreuses pour son activité : en cas de performances médiocres de ces fonctionnalités tierces, le site web concerné peut en effet subir une détérioration de ses propres performances voire une indisponibilité complète de ses services. Reprenons notre site lambda : un temps de chargement particulièrement long d’une page toute entière peut être simplement le fait d’une bannière publicitaire externe qui ne s’affiche pas. Pour le e-commerçant, c’est la quasi assurance de perdre un client, sans que lui ou son site n’en soit directement responsable.

Car on le sait, les bonnes performances d’un site web garantissent disponibilité et qualité de service à ses utilisateurs. Une page web qui s’affiche rapidement, sans temps de latence, est plus encline à capter l’attention d’un internaute et à l’inciter à pousser plus loin sa navigation sur le site, voire à transformer sa visite en achat le cas échéant. Ce que l’on sait moins en revanche, c’est que les performances applicatives ont également un impact sur les moteurs de recherche. Le temps de réponse d’un site entre en effet en ligne de compte dans son référencement naturel, au même titre que l’utilisation de mots clé, les titres de page, ou encore les rétroliens. Plus un site a un temps de réponse court, mieux il est référencé par les moteurs de recherche.
D’où l’importance de surveiller et d’optimiser les performances de son site. Mais quels que soient les efforts consentis par un éditeur pour améliorer les temps de réponse de ses pages, ceux-ci sont réduits à néant dès lors qu’ils ne sont pas suivis par les tierces parties qui alimentent son site. Faut-il pour autant remettre en question le schéma multipartite vers lequel tendent aujourd’hui la majorité des sites web ?

 

Le « big data » au secours des éditeurs

Ce serait sans compter sur les technologies « big data » qui fournissent aujourd’hui aux éditeurs de site web des solutions pour mieux anticiper et maîtriser les défaillances des services fournis par des tierces parties et par le Cloud. Grâce à un moteur de détection d’anomalies, ces outils « nouvelle génération » récoltent et traitent des quantités massives de données pour permettre aux éditeurs d’identifier automatiquement les incidents de performances tiers susceptibles d’impacter le bon fonctionnement de leurs applications. Chaque incident détecté peut ainsi être analysé pour en déterminer la source, la localisation, la gravité, la durée ou l’évolution. Autant d’éléments clés permettant à l’éditeur de prendre rapidement les mesures nécessaires pour limiter l’impact de tels incidents sur son propre site.

Qu’entendons-nous par mesures ? Bien que l’éditeur ne puisse pas, par définition, agir directement sur les problèmes de performances de services tiers, il peut néanmoins s’en prémunir tout en incitant ses partenaires à optimiser leur propre infrastructure. En effet, si l’éditeur identifie une baisse de performance en provenance d’une application externe, il peut choisir un affichage en mode dégradé, c’est-à-dire sans le contenu en provenance de la tierce partie en cause. Cela peut certes pénaliser l’utilisateur en rendant indisponible un service spécifique, mais c’est surtout l’émetteur du service défaillant qui en pâtit. Souvenez-vous : si notre e-commerçant choisit de ne pas afficher la publicité qui bloque le chargement de son site, il parvient à maintenir les performances de celui-ci tandis que l’annonceur perd en visibilité et réduit l’impact de sa campagne. De quoi inciter ce dernier à optimiser ses propres performances pour ne plus subir ce genre de censure – somme toute légitime.

Finalement, en investissant dans ces nouvelles solutions d’analyse massive d’incidents, les éditeurs se donnent les moyens de mieux gérer leurs performances applicatives en tenant compte de celles des services tiers qui alimentent – partiellement ou totalement – leur site. À partir de données chiffrées, précises et directement exploitables, ils se dotent d’arguments solides pour convaincre leurs partenaires d’optimiser leurs propres performances afin qu’aucune des parties prenantes à une application n’aient à subir les défaillances des autres.

 

Gérard Clech

Articles récents

L’Europe, mauvaise élève de la lutte contre les ransomwares ? Retour sur les enseignements du dernier rapport annuel de Sophos.

Sophos publie son rapport d'enquête annuel sur l’état des ransomwares. Un rapport basé sur une…

5 heures années

Un nouveau nom pour le groupe Infodis, qui devient TENEXA !

L'ESN Infodis accélère son développement depuis l’arrivée du Groupe HLD à son capital dans les…

2 jours années

[Partenariats] La Fédération française des Télécoms accueille un nouvel opérateur

La Fédération française des Télécoms regroupe les principaux acteurs du secteur des télécommunications en France.…

2 jours années

« L’observabilité, c’est une tour de contrôle » Rencontre avec David Buis, Country Manager de SolarWinds.

Fondé en 1999 avec l'ambition de simplifier la gestion des ressources informatiques, et de fournir…

3 jours années

« Les partenaires qui investissent dans Juniper voient leurs ventes augmenter ! » Juniper présente les évolutions de son programme partenaires.

Juniper présente une nouvelle évolution majeure de son programme mondial : Le Juniper Partner Advantage…

6 jours années

[Agenda] « Partager les bonnes pratiques de nos partenaires Cyber » : Le distributeur Cris Réseaux donne RDV aux MSPs & ESN sur son Tour de France 2024

Le grossiste Cris Réseau réunit ses partenaires revendeurs et éditeurs le jeudi 23 mai prochain…

6 jours années