Cybersécurité et Big Data : utiliser les données pour déjouer les cyber-attaques

Pour continuer à assurer des niveaux de productivité croissants qui leur permettront de faire face aux challenges posés par la nouvelle économie d’aujourd’hui, les entreprises ont compris qu’elles devaient communiquer, communiquer d‘une part en interne avec ses différents collaborateurs et communiquer d’autre part en externe avec ses fournisseurs. Cette ouverture Read more…

Cybersécurité & Big Data : comprendre l’intérêt et les limites du SIEM

Dans la chronique précédente de cette série sur la cybersécurité et le Big Data, nous avons expliqué que la cybersécurité fournit une vision du niveau d’exposition d’une entreprise à une attaque, en s’appuyant sur les données internes du Système d’Information de l’entreprise. Dans la même chronique, nous vous avons également Read more…

cloudera vs hortonworks vs mapr

Cloudera CDH vs Hortonworks HDP vs MapR CDP : 5 critères pour choisir votre distribution Hadoop

En juillet 2014 dernier,  l’ex ministre Arnaud MONTEBOURG présentait les 34 plans de la Nouvelle France Industrielle (NFI), un projet de ré industrialisation  dont l’ambition est de  positionner la France stratégiquement sur  le Big Data. Par ce projet, l’Etat montre officiellement que malgré l’engouement médiatique qu’il y’a autour du Big Read more…

data hub

Qu’est ce qu’un Data Hub ? Définition du Hub de données

La valorisation réussie des données repose sur la stratégie de gestion de données définie en amont lors de la conception du système informatique de l’entreprise. Il est d’ailleurs de coutume dans le milieu de dire « Big Data without Analytics is just data », en d’autres termes : Le « Big » Data sans l’analyse Read more…

Déployer Hadoop dans le Cloud

L’économie Numérique, grâce à la baisse des coûts des infrastructures informatiques qui la caractérise a permis l’émergence d’un nouveau type de modèle économique : le Cloud Computing. Grâce au Cloud Computing, les entreprises, aussi bien petites que grandes, qui n’avaient pas le budget nécessaire pour déployer un cluster Hadoop en production, ont désormais l’opportunité de l’acquérir sur la base d’un coût variable. Dans cette chronique, nous vous expliquerons comment Hadoop est utilisé dans le Cloud pour favoriser son adoption en entreprise.

Data Lake

Du Data Warehouse au Data Lake : quelle solution pour le stockage de données en Big Data ?

Nombreux sont les professionnels de la data qui se posent les questions sur la différence entre le Data Lake et le Data Warehouse. Certains ne saisissent pas  le sens ni l’utilisation de ces deux notions dans le stockage de données en Big Data.  Dans cette chronique, nous allons définir le Read more…

cluster informatique

Cluster Informatique : l’infrastructure de base du Big Data

Avec les challenges dont on fait face dans l’ère du Numérique, la meilleure stratégie pour valoriser les données massives ne consiste plus à centraliser le stockage et le traitement des données sur un serveur [aussi puissant soit-il], mais à distribuer leur stockage et à paralléliser leur traitement sur plusieurs « nœuds » Read more…

hadoop mapreduce

Exécuter le MapReduce dans un cluster Hadoop

Pour valoriser le volume astronomique de données générées dans l’ère du Big Data, la meilleure stratégie consiste à distribuer le stockage de données et à paralléliser leur traitement dans un cluster d’ordinateurs.  Dit comme cela, c’est très facile à appréhender, cependant la réalité est tout autre ! Car valoriser les données Read more…

pyspark

Introduction à l’ingénierie des données massives avec PySpark

Internet, l’apparition de la 3G, 4G et actuellement de la 5G, les grandes installations scientifiques génèrent une immensité de données traitables. En 2020 une analyse a révélé que 40 zéctaoctets sont générés par an, 204 millions d’e-mails sont envoyés chaque minute. L’ensemble de ces données ainsi que les enjeux qui Read more…

data visualisation

Informatique Décisionnelle : le guide complet

Il y’a aujourd’hui énormément d’informations fragmentées, et incomplètes dans le champs de l’informatique décisionnelle. Et pourtant, en tant que source du Big Data, l’informatique décisionnelle est la discipline d’où part le traitement informatisé des données. Dans cette chronique complète, nous allons expliquer de A à Z ce que c’est que Read more…

Définition du Data center : qu’est ce qu’un centre de données ?

Un data center est une expression anglaise qui signifie « centre de données » ou centre informatique plus vulgairement. C’est un lieu physique regroupant les équipements du système informatique d’une entreprise tels que : les ordinateurs, les serveurs, le stockage redondant RAID, les équipements réseaux et télécommunications, etc. Dans le cadre du Big Read more…

big data définition

Qu’est ce que le Big Data ? Définition complète

Le 21ème siècle a été témoin d’une explosion sans précédent du volume de données. D’après le constat des experts, des institutions publiques et privés, 90 % des données récoltées depuis le début de l’humanité ont été générées durant les 2 dernières années. Le marché qualifie  aujourd’hui de « Big Data » cette Read more…

dataiku

Le Self-Service Big Data avec Dataiku

​Ce​tte chronique est un livre blanc qui présente notre retour d’expérience sur l’outil Dataiku que nous avons utilisé lors de la réalisation d’un Poc of Hypothesis (Preuve d’Hypothèse – qui est un projet dans lequel on souhaite infirmer ou confirmer la faisabilité technique d’un ensemble d’idées).  Il a pour ambition Read more…

Déployer la stack ELK pour valoriser les logs de Cybersécurité

Dans la chronique précédente de cette série sur le développement d’une solution de cybersécurité à l’aide du Big Data, nous avons parlé intensément des SIEM. Comme vous l’avez vu, les architectures des solutions SIEM s’appuient sur 3 grands composants : un composant de collection de logs, un composant d’archivage de ces Read more…

Développer des applications de consommation de données avec Kafka Connect

Vous le savez déjà peut-être, mais la base du développement d’applications de Big Data Streaming avec Kafka se déroule en 3 étapes, à savoir, 1 – déclarer le Producer, 2- indiquer le topic de stockage 3- et déclarer le Consumer. En ce qui concerne le Producer, il existe 2 façon de le déclarer : Read more…

data lab

Comment construire un Data Lab pour son projet [Big] Data ?

En Juin dernier, un journaliste nous a posé la question suivante : Juvénal, votre ouvrage Hadoop – Devenez opérationnel dans le monde du Big Data aborde le problème de la compréhension des technologies Hadoop. Selon vous, les entreprises françaises ont-elles atteint un niveau de maturité suffisant pour faire éclore des projets Read more…

data mining textuel

Data Mining : les principes d’interrogation d’une base de données

Le Big Data est résolument tourné vers la valorisation et l’exploitation de la donnée. Le contexte actuel et la majorité des approches de gestion de projet  (les méthodes agiles, SCRUM, KANBAN, Lean, Six Sigma, SAFe, …) exigent que les salariés et l’ensemble des professionnels de l’entreprise aient un accès opportun Read more…

le cube OLAP : le socle de l’analyse décisionnelle en Big Data

Dans la chronique précédente de cette série, nous avons expliqué que le Big Data est l’extension de l’informatique décisionnelle. Cette dernière désigne formellement les méthodes, techniques et outils informatiques utilisés pour piloter une activité et aider à la prise de décision. Les cubes OLAP font partie de l’arsenal des outils Read more…

bases de données SQL

Hadoop vs Teradata : les approches technologiques d’interrogation d’une base de données en Big Data

Vous travaillez sur des projets de reporting, Business Intelligence, Big Data et vous avez du mal avec vos requêtes ? Vos bases de données SQL prennent trop de temps pour s’exécuter ? Vos requêtes SQL sont trop lentes ? Dans cette chronique, nous vous expliquerons l’approche technologique utilisée pour interroger efficacement les bases de données

SOA et microservices en Big Data

Architecture SOA : Développement d’applications Big Data en services et microservices

L’objectif ultime du Big « Data », c’est l’information, l’extraction de l’information pertinente pour la prise de décision, ce que beaucoup qualifient par « valeur » ou « insights« . L’objectif du « Big » Data est l’information.  Malheureusement, malgré la disponibilité des technologies du Big Data, beaucoup d’entreprises et d’organisations ont encore du mal à obtenir l’information dont ils ont Read more…

Entretien avec Cyrille Chausson : Le MagIT

LeMagIT s’est entretenu avec Juvénal Chokogoue, auteur de « Hadoop : devenez opérationnel dans le monde du Big Data » (Editions ENI), et consultant Insights &BI chez Capgemini. Il donne un coup d’éclairage sur un écosystème quelque peu confus où s’entrechoquent nombre de technologies. Quitte à perturber parfois les entreprises. Read more…

Entretien avec Data Science : Hadoop en quelques questions – avec Juvénal CHOKOGOUE

Le livre « Hadoop – Devenez opérationnel dans le monde du Big Data » est sorti en avril dernier. Il a pour but d’aider les lecteurs à monter en compétence sur les technologies du Big Data et à les préparer à bénéficier des opportunités offertes par la nouvelle économie Numérique. Read more…

Juvénal CHOKOGOUE Conférencier au PARIS BIG DATA 2018

Le Big Data bouleverse plus que jamais les processus des entreprises et, en 2018, la tendance est à la démocratisation de la donnée et de son utilisation par les métiers. Détection de fraude, satisfaction client, anticipation de pannes ou d’opportunités commerciales, amélioration de l’efficacité opérationnelle… à mesure que son ROI Read more…

Hadoop-ecosystem

Hadoop : l’état de l’art des technologies du Big Data

Les entreprises qui souhaitent exploiter leurs données utilisent aujourd’hui Hadoop d’une manière ou d’une autre. Cependant, la valorisation des données a entraîné un foisonnement de problématiques qui nécessitent des réponses technologiques aussi différentes les unes que les autres. Hadoop a beau être le socle technique du Big Data, il n’est Read more…

hadoop

HADOOP : La nouvelle infrastructure de gestion des données

En juillet 2014 dernier, l’ex ministre Arnaud MONTEBOURG présentait les 34 plans de la Nouvelle France Industrielle (NFI), un projet de ré industrialisation dont l’ambition est de positionner la France stratégiquement sur le Big Data. Par ce projet, l’Etat montre officiellement que malgré l’engouement médiatique qu’il y’a autour du Big Read more…

>