Il y’a aujourd’hui énormément d’informations fragmentées, et incomplètes dans le champs de l’informatique décisionnelle. Et pourtant, en tant que source du Big Data, l’informatique décisionnelle est la discipline d’où part le traitement informatisé des données. Dans cette chronique complète, nous allons expliquer de A à Z ce que c’est que l’informatique décisionnelle (ou Business Intelligence), ses enjeux pour une entreprise, les différents logiciels utilisés en Business Intelligence, ainsi que les métiers vers lesquels vous pouvez vous orienter si vous souhaiter travailler en BI ou en Big Data.

1 – Que signifie « Business Intelligence » ?

Pour comprendre la définition de l’informatique décisionnelle, il faut commencer par comprendre la notion de « processus« .

Selon la norme ISO 9001, un processus est : « toute activité utilisant des ressources et gérées de manière à permettre la transformation d’éléments d’entrée en éléments de sortie ». Selon cette définition, une entreprise est simplement un ensemble de processus qui concourent à l’atteinte d’un but commun. Par exemple, pour vendre ses véhicules, un concessionnaire automobile met en place plusieurs processus : le processus de commande, le processus de vente, le processus de maintenance, le processus de SAV, etc. Cet exemple est réplicable à n’importe quelle entreprise. Aussi, à partir de cet exemple, vous pouvez constater que tous les processus d’une entreprise ne concourent pas à ses objectifs stratégiques (ou à son but) de la même façon. Dans cette lancée, on distingue 2 grands types de processus: les processus « Métiers », qui rassemblent les processus qui participent directement ou indirectement aux missions de l’entreprise et les processus « décisionnels », qui rassemblent les actions de suivi des activités.

De là, on obtient la définition suivante : l’informatique décisionnelle, encore appelée Business Intelligence, désigne l’ensemble des processus administratifs, matériels et informatiques nécessaires pour suivre les processus métiers (ou opérationnels) d’une entreprise afin d’en faciliter le pilotage. Plus simplement, l’informatique décisionnelle est la branche de l’informatique qui désigne les méthodes, techniques et outils informatiques utilisés pour suivre une activité et aider à la prise de décision. Elle repose sur la masse de données générées par les processus métiers de l’entreprise et captées par son Système d’Information.

2 – Quel est l’intérêt de l’informatique décisionnelle pour les entreprises ?

Pour comprendre l’importance et l’intérêt de l’informatique décisionnelle pour une entreprise, vous devez savoir qu’une masse de données, à moins qu’elle ne subisse un traitement approprié et qu’on en retire de l’information, induit rarement à une décision. Les bases de données, fichiers structurés et non-structurés éparses, dans lesquelles sont dispersées les feedback de l’activité (ou des processus métiers) de l’entreprise, sont les matières premières de l’informatique décisionnelle. Elles seront modélisées, intégrées et homogénéisées à l’aide de techniques précises, avant d’être consolidées pour le calcul d’indicateurs d’aide à la décision (les KPI). A cet effet, l’informatique décisionnelle fournit aux décideurs deux choses :

1- les Tableaux de bord : qui mettent en relief des KPI ou indicateurs clé de performance, qui vont aider les décideurs à suivre les activité de l’entreprise en fonction des objectifs stratégiques qu’ils auront préalablement définis. Ce qui est intéressant c’est que ce suivi pourra se faire en quelques clics, en auscultant tout le travail d’intégration et consolidation de données qu’il y’a derrière. La figure suivante illustre un exemple de tableau de bord généré via de l’informatique décisionnelle.

tableau de bord business intelligence
Figure : tableau de bord généré à partir des outils d’informatique décisionnelle

2- la visualisation de données (ou Data Visualisation) : c’est-à-dire la représentation graphique ou visuelle des informations/indicateurs du tableau de bord. Grâce à des éléments visuels tels que les histogrammes, les boîtes à moustache, les graphiques croisés, ou encore les cartes géographiques, une visualisation de données permet de rapidement comprendre l’état des activités de l’entreprise et surtout de d’identifier facilement des tendances inhabituelles. La figure ci-après illustre un exemple de visualisation de données conçue avec Tableau Software.

Data visualisation Tableau Software
Figure : exemple de visualisation de données réalisée avec Tableau Software

Aussi, avec l’essor du Big Data, on note un troisième intérêt de l’informatique décisionnelle pour une entreprise : la Data Science. En effet, le Big Data a accentué la volumétrie ainsi que les sources de données disponibles, ce qui à son tour a augmenté la probabilité d’avoir une meilleure qualité d’informations et donc une meilleure visibilité sur les activités de l’entreprise. Désormais, l’entreprise peut profiter du Big Data et de la maturité des algorithmes de Data Science pour mener des analyses de données poussées et ainsi améliorer la qualité d’informations mises à disposition des dirigeants pour la prise de décision.

3 – Informatique décisionnelle ou Big Data ?

L’informatique décisionnelle est-elle dépassée à l’heure du Big Data ? Avec le bruit médiatique derrière le Big Data, vous pensez peut-être que l’informatique décisionnelle est révolue et que maintenant place au Big Data !

Détrompez-vous ! Le Big Data ne rend pas caduque l’informatique décisionnelle. En fait, le Big Data n’est pas une discipline au même titre que l’informatique décisionnelle. C’est l’extension de l’informatique décisionnelle. Vous allez comprendre.


Avant le Big Data, les entreprises avaient besoin de tableaux de bord pour avoir une visibilité sur leur activité. A cet effet, elles structuraient leurs données pour qu’elles soient stockées dans des SGBDR (Systèmes de Gestion de Bases de Données Relationnels). Jusqu’ici, tout allait bien.

Pour affiner la connaissance qu’elles avaient de leurs clients et de leurs processus métiers, elles ont commencé à inclure dans leur SGBD de nouvelles sources de données externes (comme les fichiers démographiques, les recensements des populations, les données publiques [Open Data] ou des données achetées auprès d’autres entreprises) et internes (les fichiers comptables, clients, fournisseurs et tout autre fichier produit à l’intérieur de l’entreprise). Certaines de ces sources de données étaient structurées (c’est-à-dire représentées sous forme de ligne/colonnes) comme les fichiers Excel, les bases de données Access, les fichiers clients et d’autres n’avaient pas de structure régulière (c’est-à-dire n’ayant une représentation particulière), c’est le cas des documents Word, des fichiers de visites de pages web (se dit Weblog ou Log dans le jargon), des vidéos, des images et des données provenant des réseaux sociaux (commentaires facebook, tweets extraits de Twitter, commentaires extraits de blogs…). Jusque là, tout allait bien, la situation était sous contrôle. Mais, l’adoption des smartphones couplée à l’ubiquité d’internet a littéralement fait exploser le volume de données collecté, données qui sont générées de plus en plus vite par des internautes qui sont de plus en plus connectés et de plus en plus actifs. C’est là qu’est survenu le Big Data.

Vous voyez maintenant le problème et le lien avec l’informatique décisionnelle ? Les entreprises ont toujours besoin de systèmes décisionnels pour suivre et piloter leurs activités, mais sont techniquement dépassées par la quantité astronomique et variée des données qu’elles doivent maintenant gérer pour y parvenir. Elles doivent maintenant faire face aux défis techniques associés à la valorisation des données massives.

Comme nous les verrons plus bas, les technologies que les entreprises avaient utilisées jusqu’ici pour gérer leur données et obtenir des tableaux de bord (tels que Oracle, SQL Server, DB2,…pour ne citer que ceux-là) n’arrivent plus à tenir la charge. Techniquement, lorsqu’on doit faire face à une si forte volumétrie de données qui sont disponibles sous des formes si variées et sont produites à une si grande vitesse, il est impossible d’adopter les stratégies traditionnelles de Gestion de données. On doit les repenser, repenser la façon dont on stocke ces données, repenser la façon dont on analyse ces données et repenser la façon dont on les gère.

En grosse maille, pour réussir à faire du décisionnel en Big Data, l’idée n’est plus de centraliser le stockage de ces données sur un serveur (SGBD) et de les traiter en batch, mais de distribuer leur stockage sur plusieurs ordinateurs et de paralléliser leur traitement dans un cluster d’ordinateurs. Hadoop et son écosystème technologique sont aujourd’hui le socle de cette nouvelle approche. Nous avons rédigé un article complet sur le paradigme approprié pour la construction d’un système décisionnel en Big Data. Vous pouvez le lire en cliquant sur le lien suivant : Introduction à l’écosystème Hadoop.

4 – Les logiciels de la Business Intelligence

Pour réussir à transformer le vaste volume de données générées par les processus de l’entreprise en indicateurs de performance indispensables pour la prise de décision, 6 catégories de technologies sont nécessaires : les technologies de collecte de données, les technologies de stockage, les technologies de consolidation de données, les technologies d’analyse de données & Data mining, les technologies de restitution et de construction de tableaux de bords et les technologies de visualisation de données.

En fait, vous devez savoir que le processus d’informatique décisionnelle (encore appelée la chaîne décisionnelle), c’est-à-dire le processus qui va de la collecte de données à la visualisation est un processus en 6 étapes. D’autres parlent aussi de chaîne BI. Les 6 catégories de technologies que nous avons citées précédemment correspondent chacune à une étape de la chaîne décisionnelle. La figure suivante l’illustre très bien.

processus ETL - chaîne décisionnelle
Figure : chaîne décisionnelle

Regardons chaque étape de plus près :

A la première étape de la chaîne, il faut collecter les données les données. Celles-ci sont en général éparpillées dans différents systèmes de l’entreprise et peuvent même lui être extérieur. Il faut donc les collecter là où elles se trouvent et les intégrer dans un socle unique. Pour ce faire, on utilise une technologie particulière qu’on appelle un ETL. L’ETL, Extract Transform & Load est en réalité un process avant d’être une technologie. C’est un process dans l’environnement informatique qui est chargé d’extraire les données des sources opérationnelles (EXTRACT), de les transformer de sorte qu’elles soient conformes aux règles d’homogénéisation métier (TRANSFORM) et de les charger dans le Data Warehouse (LOAD). Quelques exemples d’ETL très bien connus : Informatica de la société du même nom, SSIS (SQL Server Integration Services) de Microsoft, et ODI (Oracle Data Integration) de l’éditeur Oracle.

A la seconde étape de la chaîne décisionnelle, il faut stocker les données. Cela passe par la construction d’un Data Warehouse (ou d’un Data Mart), un endroit unique où les données collectées sont homogénéisées et organisées sous forme de sujets métiers, afin que toutes les applications décisionnelles puissent y avoir accès. Pour construire le Data Warehouse, il faut commencer par créer vue unifiée et homogène de toutes les données collectées, vu que celles-ci proviennent de différents systèmes et n’entretiennent pas nécessairement de liens métiers. La création d’une vue unifiée des données passe par la modélisation et l’implémentation d’une couche sémantique, c’est-à-dire un modèle qui va établir le schéma de stockage des données. Ce schéma sera ensuite implémenté dans un logiciel spécial qu’on appelle un SGBDR. Ainsi, le SGBDR est la technologie utilisée pour implémenter un Data Warehouse. Quelques exemples de SGBDR : SQL Server de Microsoft, DB 2 d’IBM, MySQL, Oracle, HANA SAP, etc. Si vous êtes intéressés par la méthodologie de construction d’un Data Warehouse, nous vous recommandons de consulter l’article suivant : Du Data warehouse au Data Lake

La troisième étape est optionnelle dans la chaîne BI, car une fois qu’on a le Data Warehouse ou le Data Mart, le panel d’applications décisionnelles qu’on peut construire est très large et diverse. Par contre, il peut arriver dans certains cas d’usage qu’on ait besoin de faire de la consolidation de données, autrement dit de l’agrégation de données pour le calcul d’indicateurs. En effet, la production de KPI nécessite de faire des calculs importants en termes de puissance machine. Chaque navigation de l’utilisateur dans les tableaux de bords pour des opérations de drill-down, drill up, Slicing/dicing entraîne un re-calcul de tous les indicateurs à chaque fois. Compte tenu du fait que ces indicateurs sont calculés sur des volumes très importants et sur un historique assez profond, de tels re-calculs peuvent facilement faire tomber le serveur du Data Warehouse.

Pour éviter cela, certaines opérations qui entrent dans le calcul des indicateurs sont pré-calculées et stockées soit en mémoire soit sur disque, de sorte que chaque fois que l’utilisateur navigue sur le tableau de bord, le système entier n’est pas sollicité pour recalculer tous les indicateurs. Les technologies qui permettent de faire cette pré-agrégation sont appelées des cubes OLAP. Quelques exemples de cubes OLAP incluent SSAS (SQL Server Analysis Services) de Microsoft, PowerPivot de la suite PowerBI disponible dans Microsoft Office, et Hyperion ESSBASE, racheté par Oracle.

La quatrième étape de la chaîne est également optionnelle. Tout dépend du cas d’usage en vigueur. Il s’agit de l’Analyse de données & Data Mining. L’objectif est d’utiliser des techniques d’analyse de données comme la classification, le clustering, l’apprentissage automatique, le machine learning, l’intelligence artificielle, pour identifier des corrélations, des structures homogènes, ou des tendances dans les données. Cela améliore grandement la précision des informations obtenues. Mais toutes les applications décisionnelles n’ont pas nécessairement besoin de ces techniques de data mining. Quelques technologies utilisées à cet effet sont : SAS, R, SSAS, Tibco Spotfire, etc.

La cinquième étape c’est la restitution. Les données sont désormais consolidées, et prêtes à être exploitées. Dans cette étape, il est question essentiellement de construire des tableaux de bord dans lesquels on mettra en évidence des indicateurs clés de performance (KPI). Ce sont ces KPI qui guideront les décideurs dans le suivi et pilotage des activités de l’entreprise. Quelques technologies spécialisées dans la construction des tableaux de bord : QlikView, PowerBI de Microsoft, MicroStrategy, IBM Cognos, SSRS (SQL Server Reporting Services) de Microsoft, SAP Business Objects, OBIEE (Oracle Business Intelligence Enterprise Edition).

La dernière étape est la visualisation. Cette étape est optionnelle et tout comme la quatrième étape, dépend du cas d’usage en vigueur. Ici, il est question d’agrémenter la restitution (tableaux de bord) de visualisation de données. L’idée est de représenter à l’aide d’éléments visuels comme des histogrammes, des boîtes à moustache, des graphiques croisés, des cartes géographiques, les informations/indicateurs du tableau de bord. Cela favorisera un meilleur suivi de l’activité. Quelques technologies de Data visualisation : Tableau Software, QlikSense et PowerBI.

5 – Les métiers de l’informatique décisionnelle

Comme vous pouvez vous en douter, les métiers de l’informatique décisionnelle tournent autour des différentes étapes de la chaîne décisionnelle et un peu sur le Big Data. On distingue principalement 4 grands corps de métiers : l’ ETL, l’ingénierie décisionnelle, l’analyse de données et une partie des métiers du Big Data.

L’ETL c’est l’ensemble des processus qui permettent de collecter, transformer et uniformiser les données hétérogènes de l’entreprise pour des fins décisionnels. Vu de surface, ça semble très simple de collecter et uniformiser les données de l’entreprise, mais c’est loin de l’être ! Les données sont éparpillées en silos dans plusieurs systèmes qui fonctionnent différemment (les tableurs, SGBDR, les fichiers plats, les csv, les logs, etc.) et sous divers formats (xml, csv, parquet, etc). Il faut concevoir des process précis pour les collecter, ensuite il faut implémenter des règles métiers plus ou moins complexes pour les uniformiser. Cette phase est la plus délicate d’un projet décisionnel car d’elle dépendra la qualité des données. Ici on ne retrouve qu’un métier c’est celui d’ingénieur ETL, spécialisé sur une technologie d’ETL bien précise. Par exemple Ingénieur/consultant Informatica, Ingénieur/consultant ODI, etc. Pour se positionner dans ce métier, il faut maîtriser les processus ETL et être spécialisé (ou certifié de préférence) sur une technologie ETL bien précise. L’avènement de la variété des actifs de données engendrée par le Big Data a accru l’importance de ce métier.

L’ingénierie décisionnelle regroupe les processus de modélisation de la couche sémantique du Data Warehouse ou du Data mart, de son implémentation technologique dans un SGBD et de la construction du cube OLAP. Dans ce corps de métier, on retrouve les ingénieurs décisionnels (profils internes) et les consultants décisionnels (les prestataires informatiques). Le travail de ces professionnels commence lorsque les données ont déjà été collectées via les ETL, et s’achève lorsque le Data Warehouse/Data Mart ou le cube OLAP est opérationnel.

L’analyse de données est assez vaste, car plusieurs cas d’usage sont possibles. Ici, on retrouve tous les profils qui sont spécialisés dans le reporting, la construction et interprétation des tableaux de bord (les Data Analysts), la data visualisation (Data Analysts spécialisés sur des outils de data visualisation tel que Tableau Software, QlikSense, Business Object), et les analystes de données (les data miners, et éventuellement les Data Scientist).

Un quatrième corps de métier émerge suite au Big Data, ce sont les métiers des personnes spécialisés sur la collecte et l’ingestion des données à large échelle (les data engineer), la construction de Data Lake, et la valorisation de données massives sur Hadoop (les Data Scientists). Si vous souhaitez vous orienter sur l’un de ces métiers, je vous recommande de lire notre article dédié sur les 7 métiers porteurs du Big Data.

Maintenant, nous espérons que vous avez compris ce que c’est que l’informatique décisionnelle et que vous voyez comment vous pouvez y faire carrière. Dites-nous en commentaire, vous souhaitez travailler dans l’informatique décisionnelle ? vers quel métier souhaitez-vous vous orienter ?


Juvénal JVC

Juvénal est spécialisé depuis 2011 dans la valorisation à large échelle des données. Son but est d'aider les professionnels de la data à développer les compétences indispensables pour réussir dans le Big Data. Il travaille actuellement comme Lead Data Engineer auprès des grands comptes. Lorsqu'il n'est pas en voyage, Juvénal rédige des livres ou est en train de préparer la sortie d'un de  ses livres. Vous pouvez télécharger un extrait de son dernier livre en date ici : https://www.data-transitionnumerique.com/extrait-ecosystme-hadoop/

>