Roxane Edjlali, Gartner

« Le Big Data n’est pas un marché en soi » c’est une spécialiste du Gartner qui le dit

Analyste spécialiste du Big Data au Gartner, Roxane Edjali a commenté pour Yves Grandmontagne sa note de recherche sur les dépenses IT dans le Big Data. Iconoclaste ?

Le Gartner a récemment publié une note de recherche sur le Big Data, « Big Data Drives Rapid Changes in Infrastructure and $232 Billion in IT Spending Through 2016 », dont Silicon.fr s’en est fait l’écho dans l’article « Big Data : 232 milliards de dollars de dépenses IT jusqu’en 2016 » 

Roxane Edjlali, Gartner
Roxane Edjlali, Gartner

Roxane Edjali, analyste spécialiste du Big Data au Cabinet Gartner, revient sur cette étude en répondant aux questions de notre confrère de Silicon.fr Yves Grandmontagne. Et ses propos remettent les faits en perspective…

Y a-t-il véritablement un marché du Big Data et pourquoi avez-vous exclu le matériel de votre étude ?

Roxane Edjali : Si le potentiel des dépenses IT liées au Big Data est conséquent, 232 milliards de dollars d’ici à 2016, à l’initial c’est un marché composite, mais pas un marché en soi. Je ne pense pas qu’il va donner lieu à un marché en tant que tel. Le Big Data est plutôt une conjonction d’évènements. Ce sont les technologies qui le composent et sa volumétrie qui viennent étendre le marché. Partant de cette constatation, les marchés impliqués sont liés au logiciel et au stockage. C’est pourquoi nous avons exclu le hardware. D’ailleurs les entreprises vont réemployer des machines, et pas uniquement des solutions de Big Data.

Quels sont les modèles de déploiement du Big data ?

Les modèles de déploiement sont divers et nous assistons à une maturité émergente, en particulier avec des offres hébergées dans du Cloud. Les composants impactés sont divers, autour de l’infrastructure applicative et du temps réel, et doivent adresser les problématiques de vélocité. Quant aux usages, ils portent sur l’e-commerce, les médias sociaux, la publicité, les jeux. Les modèles avec souscription du Big Data Analytics via le Web vont représenter un gros pourcentage des dépenses.

La vraie problématique du Big Data n’est-elle pas dans l’absence de compétences ?

Lorsqu’il y a peu de compétences en interne, il faut mettre en place des services. C’est une caractéristique des technologies émergentes, qui affichent jusqu’à un ratio de 1 à 20 du service dans la dépense. Avec la maturité, la différence va s’atténuer et la compétence deviendra une partie normale des projets avec la standardisation et le remplacement des technologies dans l’organisation. A partir de 2018, le remplacement sera destructif.

Le déploiement du Big Data est souvent associé au cloud…

Quand l’économie ne va pas très bien, les entreprises ne vont pas se lancer dans une offre à coût fixe, sauf en cas de soucis de régulation règlementaire qui impose à l’organisation de ne pas aller sur le Cloud. Maintenant, avec la multiplication des données, en particulier les données non structurées, le Big Data ne change pas les problématiques d’hébergement dans le Cloud.

Où en est l’adoption du Big Data en France ?

En France, les grandes entreprises affichent des niveaux de maturité très différents. Beaucoup affichent leur intérêt et des questionnements. Les entreprises françaises sont plutôt attentistes, elles sont dans observation, 85% d’entre elles ne feront rien de conséquent avant 2015. Et celles qui se lancent sont précurseurs, sauf de facto l’e-commerce et les interfaces web. Dans la grande distribution, la banque, l’assurance, les prototypes se mettent en place. Dans l’industrie, automobile, chez les équipementiers, le Big Data se construit autour des capteurs, pour collecter et analyser les données. Les industriels ont besoin de vélocité pour traiter la volumétrie des capteurs en données structurées. La banque-assurance traite à la fois structuré et non structuré, pour la détection des menaces par exemple. Quant à la grande distribution, elle recherche potentiellement des grandes combinaisons de facteurs, pousser des offres sur les mobiles par exemple.

La difficulté ne sera-t-elle pas de trouver les personnes qui seront capable d’analyser les données ?

C’est là que sera l’impact des services, dont le rôle sera de faire l’analyse et de tirer la valeur. Avec les data scientists, nous allons assister à la généralisation de la fonction de statisticien, de linguiste, etc. Mais en effet, la demande sera de plus en plus disproportionnée face au marché. La création de cursus dédiés apportera des gens qui ne seront opérationnels que dans 3 à 5 ans. Il y des compétences à développer, en généralisant les fonctions de statisticiens, ou alors en combinaison avec les analystes. Mais ce sera un des freins à l’adoption des technologies.

Nous constatons la présence de deux facteurs bloquants : la compréhension du management, quelle valeur vont-ils pouvoir en tirer et les compétences. Avec la pratique du distributed processing, la consolidation et la compétition, l’évolution des pratiques et des infrastructures, les Big Data feront partie des infrastructures normales à partir de 2016-2018. Ce sera le moment pivot.