Pour gérer vos consentements :
Actualités: ENTREPRISE

Du risque de négliger la « petite donnée » face au Big data (avis d’expert)

Difficile aujourd’hui de résister au phénomène Big data. D’autant qu’il répond à une attente forte en matière de compétitivité. Mais avant de s’y jeter, les entreprises n’ont-elles pas intérêt à se mettre au clair avec leurs « petites données », en utilisant des outils de gestion de données applicatives ou Application Data Management (ADM) ?

À l’agenda d’un nombre croissant de comités exécutifs, le Big data fait toujours couler beaucoup d’encre, car promis à un bel avenir. D’après le cabinet d’études IDC, ce marché devrait en effet connaître une croissance annuelle moyenne de 11,7% jusqu’en 2020.

Face aux mégadonnées…

Nouvel eldorado des entreprises en quête de relais de croissance, le concept de Big data, rappelons-le, désigne le traitement en masse, grâce à des algorithmes sophistiqués, de volumes considérables de données, issues de sources diverses : transactions par carte bleue, données de navigation, analyse sémantique de messages, remontées de caisses, données de géolocalisation… Toutes collectées automatiquement.

Pour en faire quoi concrètement ? En s’appuyant sur l’analyse statistique de ces mégadonnées, les métiers de l’entreprise veulent améliorer les prédictions sur les produits, les clients et les fournisseurs. Typiquement, le Big data va aider à prévoir le comportement de consommateurs sur un point de vente afin d’optimiser une offre commerciale ou d’améliorer le service.

Dépeint comme un levier de compétitivité, y compris pour les PME, le Big data occupe donc tous les débats, crée de l’engouement et génère nombre de projets pilotes. Et ce au point d’occulter les autres données – moins glamour il est vrai – dont dispose l’entreprise, et qui pourtant structurent son activité : numéros de comptes, adresses des fournisseurs, taille des articles, etc. En somme, toutes ces informations gérées au quotidien dans les ERP dédiés aux achats, à la facturation ou encore à la supply chain.

Des petites données de qualité

On peut qualifier ces données de « petites », au sens où elles ne se mesurent pas en pétaoctets, varient moins vite et sont souvent issues de saisies manuelles. Si petites soient-elles, ces données n’en doivent pas moins faire l’objet d’une attention forte car elles sont, elles aussi, un actif essentiel pour accompagner les transformations et prendre les bonnes décisions. À condition d’être exploitables.

Or, leur qualité laisse encore à désirer. Selon une enquête menée en novembre 2016 pour Experian (« Données et Entreprises en 2017 : un diagnostic complet »), neuf entreprises interrogées sur dix n’auraient pas confiance dans les données de leur système d’information. En moyenne, 27% des données sont jugées comme non fiables.

Quel est le risque pour l’entreprise ? Ces données de base, erronées, incomplètes ou doublonnées, injectées dans le système d’information, génèrent de la non qualité. Elles nécessitent également du temps et des ressources pour les identifier et les corriger. À l’instar d’une pile bouton, capable de polluer à elle seule un cours d’eau pour des années.

Assurer les fondamentaux

Face à des défauts qui perdurent dans les bases internes, ne faudrait-il pas commencer par bien gouverner ces petites données, si l’on veut exploiter le levier du Big data ? Il ne s’agit pas de remettre en cause l’intérêt évident des mégadonnées, mais d’organiser les priorités. Connaître les comportements des clients est une force. Mais cela ne sera d’aucune aide si l’entreprise n’assure pas correctement ses fondamentaux : réapprovisionner, fabriquer, livrer, facturer, encaisser.

Du reste, tirer bénéfice des informations produites n’est pas l’apanage des données en masse, parfois hors de portée car complexes à manipuler : le réservoir de ventes des entreprises dépend aussi de la pertinence des données internes, gérées via les ADM.

Par David Coerchon, consultant avant-vente de Winshuttle France, éditeur d’outils d’extraction de données SAP.

Lire également :

Winshuttle fait de Christophe Rebecchi son directeur des ventes Europe du Sud

Big Data : une croissance portée par les grandes entreprises

Ariane Beky

Articles récents

Automatisation des tâches commerciales répétitives & optimisation des cycles de vente avec l’IA : la feuille de route stratégique 2025

En 2025, l'IA générative devient un incontournable stratégique pour les entreprises commerciales. Les défis majeurs…

31 minutes années

Panorama MSP : pourquoi les groupements d’achat séduisent encore peu les prestataires IT

Le cabinet ndnm publie en 2025 son premier panorama de la prestation informatique en France.…

45 minutes années

Mailinblack franchit un cap avec Softvalue et Arrow ECS : entretien avec Cassie Leroux, sa directrice commerciale et produit

Pour accompagner l’essor de sa suite U-Cyber, Mailinblack a engagé une transition vers un modèle…

1 jour années

« Trop d’alertes tuent l’alerte » : Comment Cato Networks structure sa croissance autour de ses partenaires

Face à la complexité croissante des infrastructures réseau et sécurité, le modèle SASE (Secure Access…

2 jours années

Nominations : qui sont les nouveaux visages de l’IT sur le mois d’avril ? (2e partie)

Certains arrivent, d’autres sont promus : chaque mois, ChannelBiz revient sur les principaux mouvements et…

3 jours années

Panorama MSP : quels sont les distributeurs plébiscités par les prestataires IT en France ?

Le cabinet ndnm publie son premier panorama de la prestation informatique en France (2025). L'étude…

3 jours années