L’objectif ultime du « Big » Data, c’est l’information, l’extraction de l’information pertinente pour la prise de décisionce que beaucoup qualifient par “valeur” ou “insights“. L’objectif du “Big” Data est l’information.  Malheureusement, malgré la disponibilité des technologies du Big Data, beaucoup d’entreprises et d’organisations ont encore du mal à obtenir l’information dont ils ont besoin. Aujourd’hui, on sait techniquement comment fouiller ces données ou répondre aux requêtes d’interrogation des utilisateurs via les technologies modernes telles qu’Apache Spark, Hadoop, ElasticSearch, GCP, Microsoft Azure, AWS et compagnie.  Mais ce qu’on ne sait pas forcément faire c’est aligner le système d’information de l’entreprise avec les architectures, les infrastructures et les technologies nécessaires pour surmonter toutes les problématiques que soulèvent le Big Data, car il faut le préciser : chaque problématique en Big Data nécessite des réponses architecturales, infrastructurelles et technologiques différentes.  

Vous souhaitez vous [ré]orienter vers le métier de data architecte ? Bien réfléchi ! Les entreprises ont de plus en plus besoin d’architecte Big Data pour les aider à concevoir les architectures et faire les choix technologiques nécessaires pour surmonter toutes les problématiques que leur posent leurs données. Ce besoin est d’autant plus urgent que la digitalisation/numérisation de la société s’accélère et que le nombre de technologies disponibles augmente.  Le timing est donc parfait pour vous lancer dans une carrière d’architecte !

Cette chronique est une fiche métier dans laquelle nous allons vous expliquer les étapes complète à suivre pour devenir Data architecte. Nous allons y parler du profil métier, de l’intérêt d’un architecte big data dans une entreprise, de ses missions, de ses compétences, de son salaire, de son évolution de carrière, et des formations à suivre pour s’y orienter.

Pourquoi l’entreprise a-t-elle besoin d’un Architecte Big Data ?  Quel est son rôle ?

Pour comprendre l’intérêt d’un architecte Big Data dans une entreprise, il faut remonter dans le temps et comprendre comment la gestion de données se faisait. Vous devez comprendre qu’avant les problématiques du Big Data, l’approche stratégique utilisée par les entreprises pour gérer leurs données consistait à centraliser le stockage et le traitement de leurs données sur un serveur central dans une architecture client/serveur. L’architecture client/serveur était le socle du système informatique d’un entreprise.

Dans cette logique, un architecte spécialisé dans la Data n’était pas nécessaire, car tout ce qu’il fallait faire c’était s’assurer que les technologies du SI de l’entreprise était aligné au SGBD qui faisait office de serveur de données. La communication entre applications se faisait essentiellement par intégration au serveur de données ; c’est-à-dire qu’il fallait simplement travailler la compatibilité des applications au protocole du serveur, notamment à l’ODBC/JDBC.  

A titre de rappel, le système informatique d’une entreprise est composé de plusieurs types de logiciels (logiciel de traitement de texte, tableur, SGBD, ERP, Data Warehouse) qui d’une manière ou d’une autre coexistent pour former un tout cohérent qui aide l’entreprise à atteindre ses objectifs de gestion. Techniquement, pour faire coexister les logiciels avec un SGBD dans un système, il faut procéder par intégration. Nous avons une chronique sur les architectures de système d’information dans lequel nous expliquons cela en profondeur.

Dans cette configuration, étant donné que la problématique est toujours la même (à savoir intégrer les applications avec le SGBD), La croissance des données est gérée par upsizing du serveur, c’est-à-dire par augmentation de la capacité physique de ses composants. Par exemple, l’augmentation de la mémoire, de 124 Go à 256 Go, l’augmentation de la fréquence du processeur, de quadri-core 3 Ghz à Quadri-core 5 GHz, ou l’augmentation de la capacité de stockage du disque dur de 500 Go à 2 To. Il n’y’avait donc pas besoin de repenser quoique ce soit, ni le stockage, ni la façon dont les traitements s’effectuait, ni même l’infrastructure. Le gros du travail résidait dans la cartographie du système informatique et l’intégration ou interfaçage des applications au SGBD.

Mais avec l’explosion du volume de données, l’architecture Client/Serveur a rapidement montré ses défauts, notamment :

  1.  La centralisation du stockage et du traitement des données sur un serveur central crée une pression beaucoup trop importante sur l’architecture informatique de l’entreprise, ce qui par effet domino augmente le temps de réponse des requêtes aux clients (la latence). Cette augmentation de latence est préjudiciable à l’activité de l’entreprise, spécialement si elle est spécialisée dans des domaines comme l’e-commerce, la banque, l’assurance, etc.
  2. La technique d’upsizing, utilisée pour rendre le serveur capable de s’adapter aux fortes charges de données n’est pas suffisante lorsque l’échelle du volume de données est beaucoup trop importante.
  3. Avec l’intensification des activités sur Internet, les sources de données des entreprises ont commencé à se diversifier, ce qui faisait qu’il fallait intégrer la base de données non plus seulement avec les applications internes, mais également avec des applications externes. On a donc commencé à dépasser progressivement l’intégration pour embrasser l’interfaçage applicative.  
  4. Avec le développement d’internet, sont apparus de nouveaux modèles de consommation de l’IT : le Cloud computing, qui combiné au phénomène de globalisation qui s’est progressivement mis en place à partir des années 90, a réduit les barrières à l’entrée et a favorisé une rude concurrence à l’échelle internationale. Ainsi, les activités de l’IT ne pouvaient plus se cantonner uniquement à la DSI, mais elles devaient s’intégrer avec les directions métiers, s’intégrer avec des référentiels de gestion de projet plus souples et plus agiles que ceux précédemment utilisés afin de favoriser une plus grande réactivité de l’entreprise vis-à-vis de la compétition.
  5. Le Big Data est venu avec de nouvelles contraintes, nouveaux actifs de données, nouveaux paradigmes de traitement de l’information, nouvel écosystème technologique. Il faut désormais être capable de se prononcer sur les technologies du Big Data qui répondent aux besoins des cas d’usage data de l’entreprise et être en même de les intégrer dans l’écosystème informatique de l’entreprise.

Toutes ces contraintes ont crée un besoin urgent d’architecte spécialisé sur les problématiques de la data, qu’on appelle aussi architecte Big Data ou Architecte Data pour les accompagner dans les méthodologies, l’infrastructure et l’écosystème technologique adaptés à leurs projets big Data. Nous détaillons cela dans la section suivante.

Les  missions d’un architecte data

La mission d’un data architecte est d’aider les entreprises sur les aspects méthodologique, organisationnels et infrastructurels de leurs projets Big Data. L’architecte Data (ou Big Data, en fonction de l’échelle du projet) a un rôle technico-fonctionnel. Son travail au quotidien consiste à évaluer la faisabilité des cas d’usages et indiquer comment les implémenter technologiquement lorsqu’il les a validé. Il décide des briques technologiques nécessaires pour la résolution d’une problématique data précise. Par exemple pour les problématiques d’interrogation de données, il pourra dire à l’entreprise s’il est preférable d’aller avec Hive, Spark, ElasticSearch, MySQL, ou autre. Pour les problématiques de streaming, il pourra dire s’il faut aller sur Kafka, Spark Streaming, Flink, Apache Samza, Flume, ou d’autres. Il maîtrise les technologies de la data et a une très bonne connaissance de la façon dont elles peuvent être combinées pour résoudre un problème spécifique.  D’autre part, il a la capacité d’intégrer cet ensemble à l’architecture informatique existante de l’entreprise ou de la modifier de sorte qu’elle puisse s’intégrer avec celle-ci.

Il est lui-même très peu impliqué dans les développements, mais fournit l’expertise technologique aux équipes sur sa tutelle lorsque cela est nécessaire. Il travaille de concert avec les équipes de développement, de Data Science, de Business Intelligence, d’administration et fait son rapport directement au DSI ou au CDO (Chief Data Officer). Il est indispensable qu’il travaille avec ces équipes, car il détient la vision et l’expertise nécessaires pour valider les choix techniques qui sont faits dans l’avancement du cas d’usage.

Il conçoit les solutions fonctionnelles, fournit la cartographie des outils à utiliser, et montrera benchmark à l’appui, l’impact que ceux-ci auront dans le SI de l’entreprise. Il travaille avec les décideurs pour mettre cette cartographie en place. Il anticipe les besoins futurs des DSI et propose des solutions qui respectent les contraintes imposées par les architectures existantes.

Enfin, l’architecte Big Data c’est beaucoup de conseil sur les choix de technologies à faire, les configurations des machines, la validation de la faisabilité technique de uses case. Cela nécessite essentiellement la maîtrise des référentiels de gestion de SI d’entreprise de type CobIT, ITIL, TOGAF, la connaissance des principes d’urbanisation d’un système d’information, les approches de gestion de projet (les méthodologies agiles, SCRUM, Safe, cycle en V), les architectures orientées services (SOA), l’analyse des besoins métiers et la MOA. Elle nécessite également une connaissance assez pointue des technologies principales du Big Data. 

Maintenant voyons les compétences requises pour être data architecte.

Les compétences d’un architecte de données

Déjà, il faut savoir que les bons architectes Big Data sont rares parce que c’est un métier qui  demande un double profil : dans un premier temps, il faut avoir de l’expérience dans l’ingénierie de données (au moins 3 ans pour les architectes juniors), et dans un second temps, il faut au moins 2 ans dans le conseil.  Tout ceci est générique. De façon très concrète, afin d’être en même d’apporter du conseil de haut niveau à la DSI, recommander les technologies adéquates aux cas d’usage et concevoir les applications big data qui répondent aux besoins des différents métiers de l’entreprise, l’architecte Big Data a besoin de 3 catégories de compétences :

  • des compétences organisationnelles : il s’agit ici essentiellement de la maîtrise des référentiels de gestion d’entreprise qui permettent définir les architectures informatiques appropriées en fonction des résultats souhaités par l’entreprise. Il s’agit par exemple des référentiels CobIT, ITIL, TOGAF, les architectures orientées services (SOA) et tout autre référentiel d’urbanisation/gouvernance de système d’information. Il est également indispensable qu’il dispose des compétences sur les méthodologies de gestion de projet, qui lui permettent de travailler avec diverses équipes, et concevoir les applications qui sont adaptées à ce rythme de fonctionnement. Il s’agit des méthodologies de gestion de projet tels que les méthodologies agiles, SCRUM, Safe (agile à l’échelle), et les approches de cycle en V. En plus, il doit avoir les compétences qui lui permette de cadrer un besoin métier et le traduire en chantier informatique. Il s’agit de MERISE, les techniques de MOA, l’UML avec ses différents diagrammes (diagramme de classe, diagramme de cas d’utilisation, etc..), le BPMNL avec ses diagrammes fonctionnels.
  • des compétences conceptuelles, axées sur les problématiques du management de la donnée. En effet, étant donné qu’il est spécialisé sur les problématiques du Big Data, l’architecte Data doit posséder des compétences qui lui permettront d’aborder sereinement chaque type de problématique. Par exemple, pour aborder les problématiques de traitement de données streaming, il faut maîtriser les concepts de sémantique de livraison de message, sémantique Exactement-Une-fois, diffusion atomique des messages, bus de données, système de messagerie publish-subscribe, etc.  Alors que pour aborder les problématiques de base de données, il faut connaître les différentes catégories de SGBD (SQL, NoSQL, NewSQL, Orienté colonne, clé/valeur, etc.), la modélisation décisionnelle, le stockage en environnement distribué, les cubes OLAP, etc. Chaque problématique de data engineering a des exigences spécifiques, et l’architecte data doit avoir une compréhension globale de la façon dont on adresse ces exigences. A la rigueur, l’architecte data doit avoir été Data Enginer de base, ou avoir pratiquer l’ingénierie de données pendant au moins 2 ans.
  • et des compétences technologiques. Même si l’architecte n’est pas directement impliqué dans le développement applicatif des solutions qu’il propose (ce qui revient aux data engineers ou aux développeurs big data),  il est indispensable qu’il possède des compétences éprouvées sur les technologies de l’écosystème Hadoop et les bases de données. Par exemple, on pourrait citer : Hadoop, Spark, Kafka, HBase, Cassandra, Hive, Pig, Oozie, la maîtrise des spécificités des langages SQL, Java, la maîtrise des bases de données commerciales comme open source, en l’occurrence Oracle, SQL Server, PostgreSQL, MySQL Server, etc. Il faudra également qu’il s’y connaisse sur l’automatisation des flux de développement en production (le DevOps) pour être capable de couvrir l’intégration continue dans les architectures qu’il propose. Il n’est pas nécessaire qu’il maîtrise les technologies y afférentes comme Jenkins, Git, GitFlow, Docker, Sonarqube, Ansible, Maven, Nexus, artifactory, Kubernetes, mais il faut qu’il connaisse leur principe de fonctionnement pour les aspects de gouvernance IT. Voici sa matrice de compétences complètes.

Matrice de compétences complètes de l’architecte Data :

  • Maîtrise des référentiels d’architecture d’entreprise : ITIL, cobIT, Gouvernance IT, TOGAF, SOA.
  • Maîtrise des méthodologies de cadrage de besoin : AMOA, UML, BPMN, MERISE, diagrammes de classes, diagramme de cas d’utilisation, MCD, MLD, MPD
  • Connaissance des méthodologies de conduite de projets : cycles en V, processus unifiés, méthodologies agiles, méthodologie SAFe.
  • Normes et réglementations : bonnes connaissances des normes/réglementations de données en vigueur, et de leurs impacts sur le SI d’une entreprise. Par exemple : ISO 10 006, ISO 27001, Bâles,  réglementation RGPD, normes ISA, Sarbanes Oxley, etc.
  • connaissance des spécificités des langages de scripting :  SQL, Scala,  Java, Python, Shell
  • connaissance du fonctionnement des systèmes d’exploitation : UNIX, Linux, Solaris, Windows
  • connaissances des bases de données SQL : Teradata, Microsoft SQL Server, MySQL Serveur, PostgreSQL, SAP Hana, OLAP, data warehousing, modélisation multidimensionnelle, MDM
  • connaissance des systèmes NoSQL : Elasticsearch, HBase, Cassandra, Amazon Redshift,
  • connaissance des processus et des outils ETL : Talent open studio, Pig Latin, Sqoop.
  • maîtrise des framework de calcul massivement parallèle de données : Hadoop, Spark, Kafka
  • être à l’aise avec les solutions Cloud : GCP, Azure HDInsight (lien), AWS
  • être à l’aise avec les approches d’intégration et de déploiement continue (devops) : Jenkins, git, GitHub, gitlab, création de CI/CD, docker, Ansible, kubernetes, etc…

Voila ! Ces compétences sont sans mentionné les compétences interpersonnelles nécessaires pour assurer les tâches du métier au quotidien, à savoir l’esprit de rigueur et d’analyse, la communication, l’esprit critique, le sens des responsabilités et un grand sens de travail en équipe. Nous avons réalisé une petite figure synthétique en forme de radar afin de vous aider à visualiser les compétences principales de l’architecte data. Dans le point suivant, nous allons vous expliquer comment devenir Data Architecte.

cercle de compétences du data architecte
Figure : cercle de compétences du [Big] Data Architecte

Formation Data architecte : Comment devenir Architecte Big Data ?

Le métier d’architecte Big Data n’est pas un métier d’entrée de carrière. En d’autres termes, vous ne devenez pas Data Architecte juste en suivant une formation ou en passant une certification. C’est un métier vers lequel on s’oriente en général après des années d’expérience en tant que Data Engineer. Si vous estimez que votre niveau n’est pas élevé sur la partie Data, vous pouvez vous renforcer avec un Master spécialisé en 1 an ; Dans ce cas de figure, je peux vous recommander les Masters suivants :

  • Le Master Spécialisé Big Data de Telecom ParisTech : Télécom ParisTech est une école d’ingénieurs qui offre un Master spécialisé en Big Data sur un an intitulé « Big Data : Gestion et Analyse des données massives ». Le but de ce master est d’apporter à ses apprenants des compétences sur l’exploitation des données sur Hadoop et de compléter ces compétences par des compétences métier. De plus, Télécom Paris anime trois chaires de recherche et d’enseignement qui proposent plusieurs filières de formation autour du Big Data;
  • Le Master Spécialisé Big Data de Grenoble Ecole de Management & Grenoble INP : l’école de Management de Grenoble (Grenoble-EM) offre un Master spécialisé en Big Data comme son nom l’indique qui est le fruit d’une alliance entre deux écoles : une école d’Ingénieur (Grenoble INP) et une école de Management (Grenoble EM). Ce master est accrédité par la conférence des grandes écoles de France et se tient sur une durée de 15 mois ;
  • Le Master MSc Big Data de l’ESSEC & CentraleSupélec : ce master, intitulé « Master in Data Science & Business Analytics » est également le fruit d’une alliance entre une école de management (ESSEC) et une école d’ingénieurs (CentraleSupélec). Il propose au bout du troisième mois de formation une spécialisation sur le calcul massivement parallèle que vous pouvez choisir pour monter en compétence sur Hadoop. Ce master est accrédité par la conférence des grandes écoles de France et se tient sur une durée de 15 mois ;

Vous pouvez aussi suivre quelques certifications comme celles-ci :

  • La certification Cloudera Certified Professional Data Engineer : offerte par Cloudera, cette certification couvre les aspects d’ingestion, de transformation, de stockage et d’analyse de données sur la distribution Hadoop de Cloudera en utilisant Spark SQL, Spark Shell, Hive, Spark Streaming, Kafka, Flume, Python et bien d’autres outils de la distribution. Je recommande cette certification pour monter en compétence sur la plateforme Cloudera Hadoop, qui est la principale utilisée aujourd’hui en matière de Big Data.
  • La certification Amazon Certified Solution Architect : cette certification valide votre capacité à développer les solutions Big Data à l’aide des technologies cloud Amazon. La certification présente 2 niveaux, un niveau associé et un niveau professionnel. Elles sont un bon tremplin pour vous positionner sur le marché et entrer en tant que Architecte Big Data Amazon.
  • La certification Microsoft Certified Azure Solution Architect : très similaire à la certification d’Amazon, cette certification valide vos compétences dans la conception et la mise en œuvre des solutions big data exécutables sur le cloud Azure de Microsoft. Tout comme son concurrent, cette certification présente 2 niveaux et peuvent être un bon tremplin pour vous positionner sur le marché en tant que Architecte Big Data Azure.

Si votre niveau est déjà suffisant sur le Big Data et que vous exercez depuis quelques temps, pour une réorientation vers le poste d’architecte, je vous recommanderais plutôt de passer des certifications sur les référentiels d’architecture comme TOGAF ou sur des référentiels de gestion de projet comme SAFe. Vous pouvez également suivre des certifications de solutions spécifiques comme celles de Microsoft, ou Amazon. Voici les certifications que je recommande :

  • La certification TOGAF : le référentiel TOGAF est très récurrent chez les architectes d’entreprise. L’Architecte Big Data est également un architecte d’entreprise, mais spécialisé sur les problématiques Data ; A notre avis, la certification TOGAF regroupe toutes les exigences qu’un architecte doit remplir d’un point de vue reférentiel. A la différence des autres certifications comme ITIL, ou cobIT qui sont adressées aux entreprises, le TOGAF s’adresse aux individus. C’est une certification à 2 niveaux  portant sur l’ouvrage de référence et l’ADM (Architecture Development Model). Reférez-vous au lien pour plus de détails sur elle. Pour passer la certification, il vous faudra vous inscrire à un centre de formation agréé.
  • La certification SCRUM/SAFe : vous n’êtes pas obligés de passer de certifications sur les méthodes agiles, car celles-ci sont plus destinées aux chefs de projet qu’aux architectes. Par contre, il serait intéressant de vous former dessus afin d’être à l’aise dans les environnements où ce sont ces méthodes qui sont pratiquées pour conduire les projets ou gérer le changement.

Vous pouvez aussi utiliser notre catalogue de formations pour progresser en tant qu’architecte de données. Nous disposons de formations spécifiques qui permettent de vous renforcer dans des domaines spécifiques, des problématiques précises du Big Data. En ce qui concerne l’architecture Big Data, nous disposons au moment de la rédaction de cette chronique d’une formation et de 3 ouvrages spécialisés qui peuvent vous aider :

  • Big Data Streaming : le traitement des données streaming et temps réel : l’objectif de la formation est de vous rendre capable d’aborder avec habileté les problématiques que soulèvent la valorisation des données produites en streaming à large échelle. L’idée c’est de vous équiper des compétences conceptuelles, stratégiques et technologiques nécessaires pour construire l’architecture d’une solution streaming robuste.

Vous pouvez aussi vous initier à l’ingénierie des données avec nos 03 ouvrages en la matière :

Une dernière chose, peu importe de quel côté vous venez dans le métier d’architecte, n’oubliez pas de vous documenter sur les normes et les réglementations. Certaines ont des répercussions sérieuses sur l’architecture des solutions qui peuvent être développées, les choix architecturaux, et même les choix technologiques à faire. Regardez par exemple, avec le RGPD, il faut inclure l’anonymisation dans les solutions qui exploitent les données des clients. Certaines réglementations comme Sarbanes Oxley nécessite une archivage d’au moins 3 ans des données. Nous prenons ces exemples légers juste pour vous montrer que les normes peuvent avoir un effet sur le SI. Comme elles évoluent vite, il est nécessaire que les suivez de très près.

Le salaire de l’architecte Big Data

Curieusement, malgré les exigences de compétences liées à ce métier et l’expérience nécessaire pour commencer à le pratiquer véritablement, la demande pour le métier d’Architecte Big Data n’est pas forte comparé à celle de Data Engineer ou au DevOps par exemple.  La demande est stable d’année en année, mais  les exigences sont de plus en plus nombreuses à mesure que le temps passe, cela est dû à l’évolution rapide de l’IT.  Par conséquent , les profils sont très rares.

Il faut aussi noter qu’à cause de la particularité de leur profil, les architectes Big Data sont de très loin, les plus rémunérés de tous les métiers du Big Data. A la différence des  Data Engineer  ou des  DevOps dont les TJM/salaires sont drivés exclusivement par la forte demande (et la spéculation au niveau des ESN que cela entraîne), le TJM des architectes est élevé à cause des compétences nombreuses et diverses exigées par le métier.  

Selon les estimations de Glassdoor , le salaire moyen d’un(e) Data Architect (H/F) en France est de 58 757 € / an au moment de la publication de cette chronique.  Il s’agit là d’une médiane dont le maximum monte jusqu’à  108 000 €  et le minimum est de 46 000 €. Mais par expérience, je vous recommande de considérer une moyenne de 60 000 euros / an.

Selon les données recueillies par Indeed, son salaire moyen en île de France est de 55 298  par an.  Il s’agit d’une estimation fondée sur 511 salaires envoyés de manière anonyme à Indeed par des employés (Architect (H/F)) et des utilisateurs, ainsi que sur des offres d’emploi actuelles ou publiées sur Indeed au cours des 36 derniers mois. Le salaire maximum atteint 113 000 € !

Salaire moyen des architectes en île-de-France
Salaire moyen des architectes IT en Île-de-France

Attention !!! Notez que ni Indeed, ni aucun jobboard présentement n’a d’informations précises sur les architectes Big Data. Les estimations qu’ils fournissent concernent les architectes IT de façon générale. Ainsi, en spécialisant sur le Big Data, vous êtes forcément sur des montant beaucoup plus élevés. D’expérience, je dirais qu’on est sur des salaires autour de 66 et 70 000 euros /an en moyenne.  

Côté freelance, les TJM démarrent à 750 euros/J et peuvent facilement dépasser les 1000 euros/j. La moyenne varie entre 700 – 750 euros.  La variation dépend du secteur d’activité, de la zone géographique, et du timing (l’état dans lequel se trouve le marché au moment où vous négociez).   

Evolution de carrière de l’architecte data

Un architecte Big Data évolue en entreprise de façon générale. Ils vont évoluer vers la  DSI. A la différence des autres postes dans le Big Data, l’évolution de l’architecte ne se fait pas en « poste » ou en « titre », mais en périmètre. Cela signifie qu’en tant qu’architecte, plus vous serez performant, et plus vous travaillerez sur des périmètres de projets de plus en plus larges, plus complexes. Aussi, vous vous rapprocherez de plus en plus du DSI ( Directeur des Systèmes d’Information).  Par exemple, vous travaillerez sur un projet à périmètre régional, ensuite national, et enfin mondial. C’est de cette manière qu’évoluent les architectes Big Data.


Voilà ! Vous savez tout sur le métier de Data Architecte maintenant. Nous espérons que ces informations vous aiderons à mieux ficeler votre projet de carrière et que vous savez maintenant ce que vous avez à faire pour devenir architecte Big Data. Retrouvez toutes nos fiches métiers ici :


Offres d’emploi architecte Big Data

Consultez les offres d’emploi d’Architecte Big Data


Juvénal JVC

Juvénal est spécialisé depuis 2011 dans la valorisation à large échelle des données. Son but est d'aider les professionnels de la data à développer les compétences indispensables pour réussir dans le Big Data. Il travaille actuellement comme Lead Data Engineer auprès des grands comptes. Lorsqu'il n'est pas en voyage, Juvénal rédige des livres ou est en train de préparer la sortie d'un de  ses livres. Vous pouvez télécharger un extrait de son dernier livre en date ici : https://www.data-transitionnumerique.com/extrait-ecosystme-hadoop/

>