Par Cédric VANHOORDE, Expert Bases de Données et directeur application chez RUNISO
En plus du volume important de données, ce phénomène que l’on appelle communément le big data se caractérise également par la vélocité des informations et par la variété des formats. En effet, d’une source à l’autre, le format du contenu va différer : du texte, de la vidéo des images,… L’ensemble de ces caractéristiques font que le big data implique un changement radical du rapport avec la donnée. On assiste à une sorte d’obésité des bases de données, qu’elles soient structurées ou non. Le décuplement de leur taille entraîne un stockage et une infogérance adaptés. Les bases de données SQL habituelles ne sont pas formatées pour accueillir et traiter ces gros volumes de données.
Récolter ces informations est une bonne chose mais encore faut-il les stocker et les traiter correctement pour en extraire des informations stratégiques. C’est là tout l’enjeu du big data que l’on a tendance à oublier. Il faut une réelle réflexion en amont sur le contenu des bases de données pour éviter de croiser des informations non pertinentes.
Au-delà de la question du stockage, cela soulève le problème de la pertinence et de l’exploitation des données récoltées. A la différence des anciennes bdd, qui se construisait progressivement, les bases actuelles pourraient rapidement « exploser » si les filtres mis en place ne sont pas assez précis. Le problème de l’exploitation des données se pose déjà avec certaines bases de données CRM ou BI qui concentrent de gros volumes de données. Est-il nécessaire de garder sur une même base de données 10 voire 15 ans d’historique ? Faut-il garder toutes ces données au même endroit avec les mêmes niveaux d’exigences en termes de disponibilité, de performance et de sécurité ? La rigueur est de mise dans le traitement de ces données.
Plus la taille de la base de données est importante plus elle sera gourmande en ressources et va nécessiter une infogérance particulière. Pour ce faire, il est préférable de repenser la gestion de ces données critiques pour en tirer le meilleur. Il faut identifier les données les plus pertinentes pour l’entreprise et les stocker dans une base de données spécifique. On concentrera sur celle-ci davantage d’efforts en termes de performance et de sécurité. Ainsi l’analyse de ces données sera moins énergivore et donc moins coûteuse.
En 2025, l'IA générative devient un incontournable stratégique pour les entreprises commerciales. Les défis majeurs…
Le cabinet ndnm publie en 2025 son premier panorama de la prestation informatique en France.…
Pour accompagner l’essor de sa suite U-Cyber, Mailinblack a engagé une transition vers un modèle…
Face à la complexité croissante des infrastructures réseau et sécurité, le modèle SASE (Secure Access…
Certains arrivent, d’autres sont promus : chaque mois, ChannelBiz revient sur les principaux mouvements et…
Le cabinet ndnm publie son premier panorama de la prestation informatique en France (2025). L'étude…