Les principaux critères à prendre en compte pour optimiser la performance de ses applications web

Par Joël Levée Directeur Recherche & Développement d’ActivNetworks

Mettre à disposition des collaborateurs et des clients une application Internet à laquelle ils peuvent accéder en permanence depuis un site distant ou s’ils sont en situation de mobilité procure à l’entreprise un bénéfice dont elle percevra immédiatement la valeur. La productivité des collaborateurs s’accroît grâce au partage des informations. La création et la génération de documents de travail et de rapports se font à partir des dernières données disponibles. Les informations relatives aux commandes en cours, aux affaires menées avec les partenaires et fournisseurs sont immédiatement accessibles. Les boutiques en ligne sont ouvertes 24 heures sur 24, 7 jours sur 7, permettant ainsi aux clients de se renseigner et acheter au moment qui leur convient le mieux. Les avantages d’une application web-based sont donc nombreux, partagés, connus et indéniables si l’application web est effectivement accessible dans les conditions de fluidité et de rapidité qu’attendent les utilisateurs.

Si une information n’arrive pas en moins de quelques se¬condes, les collaborateurs seront vite exaspérés. S’il manque une image ou une photo sur une page web, l’acheteur potentiel va zapper et surfer sur un autre site .Il ne suffit donc pas que l’application web soit belle et utile, il faut qu’elle soit rapide et fluide. Mais aussi parfaite qu’elle soit, elle reste tributaire des voies de communication (ADSL, WiFi, Téléphonie 3G+, liaison satellite), en un mot d’Internet qui reste le média principal qui relie l’appli¬cation web aux utilisateurs, collaborateurs ou clients. Or, si l’entre¬prise peut intervenir sur ses propres installations, face à Internet elle ne peut rien. La seule voie est donc de travailler en amont, avant que les données ne sortent de son périmètre d’intervention.

-Tenir compte des débits disponibles

L’application web est hébergée au sein de l’entreprise et s’appuie sur son architecture informatique, et notamment son réseau local.  Celui-ci, qui parcourt l’ensemble des bureaux pour relier tous les postes de travail aux serveurs, imprimantes et autres périphériques, offre aux utilisateurs un débit très important. La capacité de transport des données, exprimée en Megabit/s, est de l’ordre de 10 à 100 millions de caractères par seconde. Cette capacité, qui est très élevée, est beaucoup moins importante lorsque que l’on accède à Internet où elle sera, a minima, 10 fois moins grande pour des liaisons distantes vers d’autres postes de travail. Et quand les informations sont envoyées vers un utilisateur individuel, vers un Assistant Personnel, vers un téléphone mobile, ou par liaison satellite, les capacités de transport de ces lignes de communication sont encore plus faibles. Par exemple, une liaison en radio-téléphonie vers un Smartphone sera -dans le meilleur des cas- 300 fois inférieure à celle disponible sur le réseau de l’entreprise.
C’est là un point important que l’entreprise doit prendre en compte : il n’est techniquement pas possible de faire circuler dans un même temps autant de données à l’intérieur de l’entreprise qu’à l’extérieur.

 

-Internet, une route longue et compliquée

A la difficulté liée aux débits des différents réseaux vient s’ajouter celle de la distance que les informations doivent parcourir pour arriver jusqu’à l’utilisateur final. En effet, alors que le réseau local de l’entreprise est circonscrit à ses bureaux, le réseau Internet couvre la terre entière et les segments de routes sont nom¬breux pour atteindre l’ordinateur qui attend les données. Pour aiguiller les paquets d’information vers la route la plus efficace, différents équipements sont disposés à chaque intersection. Leur fonction, qui est de calculer le meilleur itinéraire, consomme un peu de temps pendant lequel le transfert des données est inter¬rompu. Ces délais, que l’on désigne sous le nom de temps de latence, s’accumulent et s’ajoutent aux temps de parcours total. Le temps de voyage d’un paquet dans le réseau, est donc la somme des temps de propagation physiques et des temps d’aiguillage. Bien évidemment, dans le cas d’une liaison satellitaire, les temps nécessaires aux informations pour atteindre le satellite puis re¬descendre vers la parabole de réception sont encore plus importants et viennent grever d’autant le délai de transmission global.

Dans le même ordre d’idée, si l’entreprise met à disposition une application web c’est pour qu’elle soit utilisée par de nouveaux utilisateurs qui n’y avaient auparavant pas accès. En toute lo¬gique, il s’en suivra un surcroît de trafic et donc de demandes adressées à l’application qui peuvent amener une saturation du matériel. Des solutions de répartition de charge (Load Balancing) entre plusieurs machines sont disponibles sur le marché, ce qui intéresse principalement les grandes entreprises équipées de plusieurs serveurs et dans une moindre mesure les petites entreprises qui n’utilisent qu’un seul et unique serveur dans la plupart des cas. Les distances et les temps de traitements sont incompressibles et l’entreprise ne peut pas espérer les réduire. Cette nouvelle contrainte, inhérente à Internet et au concept même d’application web ouverte vers l’extérieur, doit également être prise en compte.

– Les données ne sont pas optimisées

A tous ces problèmes de débit, de latence et d’occupation s’ajoute celui du volume occupé par les données. En effet, l’application qui jusque-là était utilisée sur le réseau de l’entreprise, et qui donc ne rencontrait pas les difficultés déjà mentionnées, pouvait se permettre d’être verbeuse. Que les informations fussent plus nombreuses que nécessaire, que les images et les graphiques fussent très grands et avec de nombreuses couleurs, que la mise en page des documents ou la disposition des contenus fussent peu étudiés, tout cela n’avait pas beaucoup d’importance car le réseau local de l’entreprise compensait ces défauts par sa grande vitesse d’acheminement. Sans négliger non plus le fait que les postes de travail installés dans l’entreprise sont suffisamment puissants et équipés des logiciels capables d’interpréter tous les contenus produits. Mais, quand l’on transmet les données sur Internet, et avec les limites et contraintes mentionnées, le volume global des informations transmises et la capacité du terminal à les interpréter deviennent des critères importants. Et même fondamentaux, puisque ce sont les seuls sur lesquels l’entreprise va pouvoir intervenir. Faute de pouvoir contrôler les débits ou réduire les délais, faute d’avoir la maîtrise d’Internet ou du terminal des utilisateurs distants, le seul recours est donc de travailler sur la compression/réduction du volume des données et les différentes capacités des navigateurs du marché, tous capables à des degrés divers de décompresser les données reçues.

– S’ouvrir au Web … et aux attaques !

Il faut noter également que les applications web accessibles via Internet, et justement parce qu’elles sont ouvertes et donc dispo¬nibles depuis l’extérieur de l’entreprise, ne sont plus accédées dans un contexte sécurisé. Avec une application « traditionnelle », les petits défauts fonctionnels, la coexistence de données standard et d’informations sensibles, l’oubli de mises à jour ou de patches peut passer inaperçu et ne pas présenter de grands risques, abrités derrière le pare-feu de l’entreprise. Dans ce contexte, il n’y a que des utilisa¬teurs «loyaux» qui utilisent l