Raphaël Maunier (NeoTelecoms) : “Aujourd’hui, dans les réseaux, la valeur c’est l’abonné”

Stratégies Channel

La neutralité des réseaux sera le débat qui agitera la sphère IT française à la rentrée. ITespresso.fr vous propose de mieux comprendre les enjeux pour les opérateurs, éditeurs de contenus et fournisseurs de services grâce à entretien exclusif avec Raphaël Maunier, spécialiste français des réseaux IP.
Une interview de Nicolas Guillaume, ITespresso.fr

Nous l’avons vu ces dernières semaines avec la proposition de Google et Verizon, mais également avec la montée en puissance du débat en France, la neutralité du Net est un sujet lourd et complexe à comprendre, car derrière un terme en apparence simple se cachent des enjeux stratégiques, économiques et techniques. Pour mieux comprendre les enjeux qui gravitent autour du concept de neutralité des réseaux, notre confrère Nicolas Guillaume d’ITespresso.fr a souhaité interroger un spécialiste français participant à de nombreuses discussions techniques dans l’Hexagone et à l’étranger.

C’est Raphaël Maunier, directeur technique de NeoTelecoms et co-fondateur du point d’échange FranceIX qui a accepté de porter son regard personnel sur le sujet. A commencer par la toute récente proposition de Google et Verizon…

(Interview réalisée le 17/08/2010)

La position exprimée par Verizon et Google sur la neutralité du Net a fait couler beaucoup d’encre, certains commençant à croire que le Net va se segmenter… Qu’est ce qui justifie cet accord/entente des deux parties ? Est-ce le début de la fin du Web “ouvert” ?

R. Maunier : A vrai dire, la plupart des spécialistes s’attendait à voir arriver une annonce de ce type. La nouveauté étant que maintenant, deux “grands” le propose publiquement, et Google n’était pas vraiment celui que nous attendions. Mais quoiqu’il en soit, cela n’est pas une contradiction par rapport à leur positionnement.
Google est devenu un monstre de trafic en drainant de plus en plus  d’internautes, il n’est donc pas étonnant de le voir sur le front. Google a en règle générale eu une bonne stratégie et, comme tout le monde le sait, la meilleure stratégie est l’effet de surprise. Il est préférable de proposer des règles avant qu’une instance de régulation vous en impose une qui ne vous soit pas favorable, c’est une stratégie plus que normale et logique.
Le Net est déjà segmenté depuis un moment et la seule différence est que désormais, tout le monde en parle.
Nous ne cessons de voir tous les jours des problèmes de qualité que ce soit dans la presse, sur les forums utilisateurs ou dans des conversations entre opérateurs.
En France, le dernier sujet en date a justement impliqué Google/Youtube et Orange. Ce petit épisode n’a pas échappé à la règle avec des rumeurs, fausses analyses et spéculations autour des accords secrets entre les deux compagnies.

L’évolution de la consommation de services interactifs est-elle trop rapide au point de devoir fixer les règles sans tarder pour éviter un développement incontrôlable ?

Il faut prendre en considération nos nouvelles habitudes dans notre façon de travailler, de communiquer, de se divertir. C’est un fait, nous utilisons tous de plus en plus Internet pour un panel de services toujours plus large, allant des sites gouvernementaux/institutionnels (Impôts, Urssaf, Pôle Emploi…) aux sites plus en relation avec son activité professionnelle, sans omettre les sites correspondant à un usage plus personnel comme ceux pour faire ses courses (grande distribution, high-tech …) ou encore communiquer et jouer en ligne (Facebook, Metaboli…).
Dans le même temps, les applications deviennent déportées. Il est de plus en plus commun de voir des entreprises ayant l’intégralité de leurs applications hébergées que ce soit sur leur propre infrastructure en data center ou sur celle d’un autre (cloud computing).
Ce changement important nous apporte maintenant la possibilité de décentraliser nos infrastructures et également les humains. Ce type de fonctionnement nous permet de faire de plus en plus de visioconférence en utilisant des services tel que Skype ou des services de partage de fichiers comme Dropbox.
De plus, la méthode d’accès évolue également. L’ensemble de ces services est désormais accessible via un terminal mobile et même les institutionnels comme la SNCF s’y mettent. Google est pratiquement à 100% dépendant des services en ligne.
L’utilisateur étant volatile, si la qualité n’est pas en rendez-vous, il change de service.

Donc, selon vous, la démarche de Google est logique ?

La démarche de Google est plus que logique. Il faut trouver le moyen de garantir une qualité suffisante pour ses services et il ne faut pas ouvrir la porte aux dérives/rumeurs en ayant un accord “secret”, qui deviendra forcément public un jour.
Verizon et Google étaient très certainement en cours de négociations et il est fort probable que leurs analyses lors de ces discussions aient pu aboutir à cette réflexion. Si vous fixez les règles dès le départ, cela permet de négocier avec des acteurs qui étaient relativement fermés à la discussion (ils sont de plus en plus nombreux).Cela va donc plutôt inciter les réseaux qui sont extrêmement protectionnistes à s’ouvrir, car il n’y aura plus de raison de se cacher derrière des négociations ratées avec tel ou tel site de contenus.
L’augmentation du trafic semble être “la cause de tous les problèmes”. Comment pensez-vous que la situation va évoluer dans les mois à venir ?
L’augmentation du trafic est le résultat de nos nouvelles habitudes et nous avons vu une très forte croissance ces deux dernières années. Les opérateurs doivent maintenant mettre à jour leurs infrastructures et la plupart d’entre eux se posent la question du financement de leurs réseaux. Nous sommes bien loin du temps où la course à la meilleure qualité vers le site de contenus était le fer de lance des opérateurs. L’époque où les réseaux de diffusion de contenus (CDN) s’installaient directement dans les data centers opérateurs et échangeaient du trafic gratuitement avec eux est quasiment terminée.
L’évolution actuelle est une politique de plus en plus ferme concernant les accords d’interconnexion (peering) entre les réseaux dit de “eyeball” (ceux qui “possèdent” l’abonné comme Orange, SFR, Free, Numericable …) et les réseaux de contenus. Les réseaux de eyeballs vont de plus en plus monnayer l’accès à leurs abonnés et ne plus prendre en charge 100% des coûts d’infrastructures, c’est ce qu’on appelle le peering payant (paid-peering).
Cependant, ceux qui bénéficient encore du modèle gratuit avec des eyeballs ne veulent pas afficher des accords payants avec ces derniers, et c’est le cas de gros CDN ou sites de contenus qui n’achètent pas ou peu de “paid-peering”. Ils préfèrent acheter du transit IP à un opérateur Tier-1 ou Tier-2 vers ces opérateurs/FAI même si parfois les conditions tarifaires sont pratiquement identiques.
Les points d’échanges comme l’Ams-Ix (Amsterdam), De-cix (Francfort) ou encore Linx (Londres) devront évoluer vers un concept qui permettra ce type peering, car nous le voyons bien, le modèle gratuit (hors coût du point d’échanges) s’essouffle.

 

D’un point de vue économique, si les infrastructures doivent être mise a jour, les opérateurs ne veulent donc plus être les seuls à régler la facture ?

Le financement des infrastructures est un sujet qui fait couler beaucoup d’encre. Aujourd’hui, la valeur dans les réseaux, c’est l’abonné. Cet abonné paye déjà un abonnement Internet, et de ce fait, finance une partie de l’infrastructure de son fournisseur d’accès. La logique voudrait que le réseau s’autofinance avec la croissance des abonnés.
Cependant, ce qui était vrai hier, n’est plus tout à fait exact aujourd’hui. Si la capacité des opérateurs à mettre à jour leurs équipements de routage est relativement bien maîtris