Développer des applications de consommation de données avec Kafka Connect

Vous le savez déjà peut-être, mais la base du développement d’applications de Big Data Streaming avec Kafka se déroule en 3 étapes, à savoir, En ce qui concerne le Producer, il existe 2 façon de le déclarer : vous pouvez entièrement le créer par programmation, ou alors vous pouvez exposer une application existante Read more…

Data Lake

Du Data Warehouse au Data Lake : quelle solution pour le stockage de données en Big Data ?

Nombreux sont les professionnels de la data qui se posent les questions sur la différence entre le Data Lake et le Data Warehouse. Certains ne saisissent pas  le sens ni l’utilisation de ces deux notions dans le stockage de données en Big Data.  Dans cette chronique, nous allons définir le Read more…

apache-kafka

Apache Kafka – mode de fonctionnement

Pour réussir à ingérer les données en flux continu et les délivrer efficacement dans le Data Lake, les outils d’ingestion s’appuient sur deux éléments particuliers : une structure de données particulière appelée le Log ou bus d’événements et un système de messagerie Publish/Subscribe. Kafka et le Data Lake à la rescousse du streaming Le Data Lake/Data Read more…

>