La Business Intelligence traditionnelle est-elle menacée ?

Par Arnaud DELAMARE I Directeur du Centre Innovation du Groupe Keyrus

Dès l’origine, une promesse majeure de la business intelligence (BI) a été de mettre la manipulation et l’analyse de données à la portée des non-spécialistes. Avec une quinzaine d’années de recul, force est de constater que ce n’est pas vraiment le cas : la BI s’est effectivement démocratisée, mais principalement en tant qu’outil de reporting et de diffusion d’informations – informations dûment contrôlées et validées, ce qui n’est pas le moindre apport de la BI traditionnelle face à la marée informationnelle qui frappe toutes les entreprises. Dans le domaine de l’analyse, le moins qu’on puisse dire est que les utilisateurs n’ont pas suivi la voie fixée par les éditeurs. La dernière enquête de Gartner auprès des utilisateurs de BI confirme ce que nous constatons chez nombre de nos clients : largement utilisées (76%), les fonctions de reporting obtiennent une note de satisfaction de 8,5 sur 10, tandis que les capacités d’interrogation et d’analyse ad-hoc sont jugées insuffisantes ou inadéquates et rencontrent, par conséquent, une faible adhésion.

Les raisons de la désaffection

« Les contraintes de la BI traditionnelle sont incompatibles avec la réactivité, la créativité et l’autonomie que l’entreprise attend aujourd’hui de ses managers et de ses collaborateurs. »

Ce n’est pas faute de besoins que les fonctions d’analyse des plates-formes décisionnelles classiques n’ont pas rencontré leur public. Au contraire : le nombre de métiers de l’entreprise où il est indispensable de pouvoir manipuler des données de plus en plus complexes n’a pas cessé d’augmenter. Trois facteurs expliquent en grande partie le relatif insuccès de ces outils auprès des utilisateurs.

Tout d’abord, ils ne sont pas si simples qu’on a bien voulu le dire ! Ils exigent de l’utilisateur un investissement considérable, et en particulier une bonne compréhension des données sous-jacentes et de logique de la plate-forme elle-même. Or, vu la pression et les rythmes de travail actuels, rares sont ceux qui ont le temps – et le désir – de se plonger dans les arcanes d’un outil de travail qui, étant nécessaire, devrait a minima être facile à utiliser.
Ensuite, les grands systèmes de BI que les entreprises ont adoptés comme standard sont structurellement rigides. Pour des raisons techniques et d’architecture, ils ne peuvent fondamentalement répondre qu’à des questions prévues et préalablement modélisées. Cette réalité ne correspond pas à la façon de raisonner et de réfléchir des utilisateurs dans des contextes professionnels qui évoluent très vite et où la valeur ajoutée se mesure précisément à la capacité à trouver rapidement des réponses pertinentes à des questions inédites. Enfin, même les utilisateurs chevronnés, capables de modéliser des requêtes plus ou moins sophistiquées, sont rapidement dépendants du département informatique qui, dans la majorité des entreprises, reste le point de passage obligé pour toute nouvelle demande liée au système décisionnel. Si ce processus est garant de la cohérence du tout, les nouvelles demandes rejoignent une file d’attente souvent déjà fort longue – au regret des équipes informatiques (manquant de ressources) et au grand dam des demandeurs (toujours pressés)…

 

Les outils qui apportent la rupture

« Ces nouveaux outils créent la rupture en accompagnant l’utilisateur dans son raisonnement et en lui permettant de suivre le cheminement de son choix pour trouver les réponses à ses questions »

De telles contraintes sont incompatibles avec la réactivité, la créativité et l’autonomie que l’on attend aujourd’hui des managers et des opérationnels. Conséquence, le taux d’utilisation des plates-formes qui font référence dans le monde de la BI a tendance à stagner, voire à diminuer. Ce recul se fait au profit d’une nouvelle génération d’outils d’analyse qui, aux yeux des utilisateurs, concrétisent la promesse initiale de la BI : faciliter et fiabiliser la prise de décisions grâce à la possibilité d’explorer et analyser rapidement les données disponibles.

La percée de solutions comme QlikView, Tableau ou encore Spotfire s’explique aisément. Ces solutions possèdent nativement les qualités qui font défaut aux plateformes plus anciennes ou qu’elles peinent à acquérir : pour l’utilisateur, l’intuitivité et l’interactivité qu’offre une approche très graphique des données ; pour les directions métiers, une rapidité de déploiement et une plus grande indépendance vis-à-vis de la direction informatique. Ces outils fonctionnent en effet sans demander la construction d’une couche sémantique et acceptent directement les données de la plupart des sources structurées que l’on trouve dans les entreprises. Ainsi, là où une direction métier devait attendre plusieurs mois la création d’un datamart correspondant à ses besoins – ce qui revenait à définir et modéliser ex ante toutes les questions que seraient susceptibles de poser les utilisateurs et les axes selon lesquels ils pourraient analyser les indicateurs –, elle peut aujourd’hui disposer en quelques jours d’un outil performant du point de vue des principaux intéressés : les utilisateurs.

Un engouement contagieux

Les bénéfices rapides de ces nouveaux outils poussent les utilisateurs à s’en faire les promoteurs enthousiastes. Le bouche à oreille fonctionne d’un département à l’autre, d’une entreprise à l’autre. La contagion progresse si bien que les directions sont de plus en plus nombreuses à rechercher de ce côté ce qu’elles n’arrivent pas à obtenir des systèmes de BI traditionnels : la souplesse, la réactivité, l’autonomie. Ce qui séduit en premier lieu les utilisateurs, c’est la rapidité avec laquelle une solution comme QlikView, Tableau ou certaines nouvelles lignes de produits des grands éditeurs leur apportent une aide tangible dans leurs tâches et décisions quotidiennes, sans nécessiter des heures et des heures d’apprentissage. Ils se piquent rapidement au jeu de leur approche très visuelle et abandonnent sans regret l’analyse d’indicateurs purement chiffrés, plutôt fastidieuse, pour des représentations graphiques variées qui rendent immédiatement saillants les exceptions, les écarts, voire les aberrations sur lesquels ils doivent concentrer leur attention.

Grâce à leurs capacités intrinsèques d’analyse, de comparaison dans le temps et entre indicateurs, d’inclusion, d’exclusion et de lien entre plusieurs analyses, ces outils intuitifs libèrent complètement l’utilisateur de la complexité sous-jacente, tout en le mettant à l’abri des erreurs de construction les plus grossières. Les modélisations se font à la volée, les traitements sont instantanés, les analyses par simple glisser-déposer ne brident pas l’utilisateur. Bien au contraire, elles accompagnent et stimulent son raisonnement et lui permettent de vérifier ses hypothèses et ses intuitions, en procédant par tâtonnements, par retours en arrière – sans perte de temps ni conséquences sur le système. De plus, si un cheminement s’est révélé fructueux, l’utilisateur peut le mémoriser et le partager très facilement via des outils de commentaires et de collaboration.

Jouer la synergie plutôt que la concurrence

Face à cet engouement, les DSI sont prises entre deux feux. Ces nouveaux outils d’analyse et de dashboarding sont incontestablement porteurs d’une rupture attendue, qui bénéficie tant aux utilisateurs métiers qu’aux équipes inform
atiques dont ils allègent a priori la charge de travail.

D’un autre côté, les DSI s’inquiètent de voir se multiplier des projets départementaux dispersés qui, s’ils satisfont les utilisateurs, sont susceptibles de porter atteinte à la cohérence globale du système décisionnel de l’entreprise. Pour les DSI, la contrepartie de l’autonomie décisionnelle acquise par les directions métiers qui déploient ces solutions est en effet le risque de voir proliférer des instruments d’analyse reposant sur des technologies hétérogènes, sur des systèmes insuffisamment sécurisés et sur autant de définitions de données qu’il y a d’outils, sinon d’utilisateurs. Cela va bien sûr à l’encontre d’un des fondamentaux de la BI, à savoir : faire en sorte que toute l’entreprise parle le même langage. Comme il est illusoire d’espérer voir reculer la popularité de ces technologies, les DSI ont intérêt à jouer la carte de la complémentarité plutôt que celle de la concurrence avec l’environnement décisionnel existant. En répondant efficacement à des besoins que la BI traditionnelle ne satisfait pas, ces technologies ont indiscutablement leur place dans le système décisionnel de l’entreprise. En revanche, l’expérience prouve qu’elles ne donnent leur pleine mesure que si elles s’appuient sur un substrat décisionnel solide.

Une autre stratégie consiste à retarder l’échéance et à s’appuyer sur les partenaires éditeurs historiques car les grands acteurs de la Business Intelligence ne comptent pas laisser passer le train. Ainsi Microsoft a largement communiqué sur Powerpivot ou encore SAP peut faire valoir Xcelsius et les technologies liées à l’acquisition de Sybase. En conséquence, les DSI qui veulent renforcer les synergies entre ces deux générations d’outils, peuvent engager deux types d’actions : d’une part, réaliser un audit approfondi de l’utilisation du système décisionnel pour identifier ce qui n’est pas utilisé et comprendre pourquoi ; d’autre part, construire le cadre méthodologique et de gouvernance dans lequel les directions métiers pourront développer leurs initiatives sans réduire à néant les années d’efforts et d’investissements BI qui ont permis de normaliser et de fiabiliser les informations de l’entreprise. Les nouveaux acteurs de la Business Intelligence ont indéniablement comme vertu de mettre en exergue deux enjeux : tout d’abord, que l’ergonomie, à l’instar de tout applicatif, est clé dans le succès d’une application analytique. D’autre part, que la conservation d’espaces de libertés reste une nécessité pour toutes les directions métiers. En cela, ils ne sont évidemment pas antinomiques de la construction de socles décisionnels solides.

1. « BI Platforms User Survey, 2010: Customers Rate their BI Platform Functionality », Rita L. Sallam, Gartner Inc., février 2010.

Arnaud DELAMARE, directeur du Centre Innovation de Keyrus, pilote aujourd’hui ce centre après avoir passé plus de 10 années au sein du Groupe à accompagner les plus grandes entreprises françaises et internationales dans l’intégration de technologies de Business Intelligence et de Performance Management. Il s’appuie dans sa mission sur une équipe dédiée d’experts répartis dans les 11 pays d’implantations du Groupe ainsi que sur un dispositif de capitalisation des savoir-faire à l’échelle du Groupe Keyrus.