Du risque de négliger la « petite donnée » face au Big data (avis d’expert)

Stratégies Channel

Numéros de comptes clients, adresses fournisseurs… David Coerchon, consultant avant-vente de Winshuttle France, revient sur l’importance de la gestion de données internes. Des sources parfois snobées au profit des mégadonnées.

Difficile aujourd’hui de résister au phénomène Big data. D’autant qu’il répond à une attente forte en matière de compétitivité. Mais avant de s’y jeter, les entreprises n’ont-elles pas intérêt à se mettre au clair avec leurs « petites données », en utilisant des outils de gestion de données applicatives ou Application Data Management (ADM) ?

À l’agenda d’un nombre croissant de comités exécutifs, le Big data fait toujours couler beaucoup d’encre, car promis à un bel avenir. D’après le cabinet d’études IDC, ce marché devrait en effet connaître une croissance annuelle moyenne de 11,7% jusqu’en 2020.

Face aux mégadonnées…

Nouvel eldorado des entreprises en quête de relais de croissance, le concept de Big data, rappelons-le, désigne le traitement en masse, grâce à des algorithmes sophistiqués, de volumes considérables de données, issues de sources diverses : transactions par carte bleue, données de navigation, analyse sémantique de messages, remontées de caisses, données de géolocalisation… Toutes collectées automatiquement.

Pour en faire quoi concrètement ? En s’appuyant sur l’analyse statistique de ces mégadonnées, les métiers de l’entreprise veulent améliorer les prédictions sur les produits, les clients et les fournisseurs. Typiquement, le Big data va aider à prévoir le comportement de consommateurs sur un point de vente afin d’optimiser une offre commerciale ou d’améliorer le service.

Dépeint comme un levier de compétitivité, y compris pour les PME, le Big data occupe donc tous les débats, crée de l’engouement et génère nombre de projets pilotes. Et ce au point d’occulter les autres données – moins glamour il est vrai – dont dispose l’entreprise, et qui pourtant structurent son activité : numéros de comptes, adresses des fournisseurs, taille des articles, etc. En somme, toutes ces informations gérées au quotidien dans les ERP dédiés aux achats, à la facturation ou encore à la supply chain.

Des petites données de qualité

On peut qualifier ces données de « petites », au sens où elles ne se mesurent pas en pétaoctets, varient moins vite et sont souvent issues de saisies manuelles. Si petites soient-elles, ces données n’en doivent pas moins faire l’objet d’une attention forte car elles sont, elles aussi, un actif essentiel pour accompagner les transformations et prendre les bonnes décisions. À condition d’être exploitables.

Or, leur qualité laisse encore à désirer. Selon une enquête menée en novembre 2016 pour Experian (« Données et Entreprises en 2017 : un diagnostic complet »), neuf entreprises interrogées sur dix n’auraient pas confiance dans les données de leur système d’information. En moyenne, 27% des données sont jugées comme non fiables.

Quel est le risque pour l’entreprise ? Ces données de base, erronées, incomplètes ou doublonnées, injectées dans le système d’information, génèrent de la non qualité. Elles nécessitent également du temps et des ressources pour les identifier et les corriger. À l’instar d’une pile bouton, capable de polluer à elle seule un cours d’eau pour des années.

Assurer les fondamentaux

Face à des défauts qui perdurent dans les bases internes, ne faudrait-il pas commencer par bien gouverner ces petites données, si l’on veut exploiter le levier du Big data ? Il ne s’agit pas de remettre en cause l’intérêt évident des mégadonnées, mais d’organiser les priorités. Connaître les comportements des clients est une force. Mais cela ne sera d’aucune aide si l’entreprise n’assure pas correctement ses fondamentaux : réapprovisionner, fabriquer, livrer, facturer, encaisser.

Du reste, tirer bénéfice des informations produites n’est pas l’apanage des données en masse, parfois hors de portée car complexes à manipuler : le réservoir de ventes des entreprises dépend aussi de la pertinence des données internes, gérées via les ADM.

Par David Coerchon, consultant avant-vente de Winshuttle France, éditeur d’outils d’extraction de données SAP.

Lire également :

Winshuttle fait de Christophe Rebecchi son directeur des ventes Europe du Sud

Big Data : une croissance portée par les grandes entreprises


Auteur : Ariane Beky
Lire la biographie de l´auteur  Masquer la biographie de l´auteur