« Avez-vous des compétences en Apache Dauphine ? », « Oui j’ai fait un TD de 6h dessus » Tel est l’entretien que notre ami et collègue XXX (anonymisé pour raison de confidentialité) a eu avec un candidat. Malheureusement ce candidat n’a pas été retenu parce qu’aujourd’hui dans l’écosystème Hadoop, il n’existe aucune technologie nommée Apache Dauphine.
Cet ouvrage est un manuel d’apprentissage technique qui a été rédigé pour toute personne qui souhaite développer des compétences sur une ou plusieurs technologies de l’écosystème Hadoop. Il a pour but de vous aider à utiliser de façon professionnelle 18 technologies clés de l’écosystème Hadoop à savoir : Spark, Hive, Pig, Impala, ElasticSearch, HBase, Lucene, HAWQ, MapReduce, Mahout, HAMA, TEZ, Phoenix, YARN, ZooKeeper, Storm, Oozie, et Sqoop. Ces technologies sont traitées en 7 parties indépendantes dans l’ouvrage. L’ouvrage a été écrit selon un style initiatique et progressif de type « pas-à-pas » qui permet d’emmener le débutant à l’utilisation professionnelle de ces technologies. Pour faciliter la compréhension de l’ouvrage, chaque chapitre s’achève par un rappel des points clés et un questionnaire qui permettent au lecteur de consolider ses acquis. Des compléments de code sont disponibles en téléchargement sur le site www.editions-eyrolles.com/dl/0067478
En lisant cet ouvrage, vous allez :
- Apprendre à utiliser 18 technologies clés de l’écosystème Hadoop ;
- Comprendre les approches conceptuelles de chacune de ces technologies pour rendre vos compétences indépendantes de l’évolution technologique ;
- Etre capable d’identifier la portée fonctionnelle, stratégique et managérial de chacune de ces technologies ;
Dans cet ouvrage, vous découvrirez :
- L’approche conceptuelle et les principes de fonctionnement d’Hadoop (chapitre 1) ;
- Les 3 modèles de calcul utilisés pour traiter les problématiques de type batch (partie 1) ;
- Les 2 moteurs de calcul qui accélèrent 100 fois plus vite les traitements en Hadoop : Spark et TEZ (partie 1) ;
- Le reverse engineering de Hive à Pig et de Pig à Hive (chapitre 4) ;
- L’écriture et l’exécution native des requêtes SQL sur le HDFS via Impala, HAWQ & Phoenix (partie 2) ;
- Le passage du SQL au NoSQL et le panorama des SGBD NoSQL (chapitre 6) ;
- Les 5 règles de modélisation d’une base de données en HBase (chapitre 7) ;
- Les 3 règles de passage d’une base de données relationnelle à une base HBase (chapitre 7) ;
- Les techniques d’indexation de contenu utilisés par les sites de recherche pour retrouver n’importe quel information sur Internet (chapitre 8) ;
- Les 9 étapes de développement d’une application d’indexation et de recherche de contenu (chapitre 9) ;
- Le développement d’applications d’indexation et de recherche de contenu en Apache Lucene et ElasticSearch (chapitre 9 & 10) ;
- Les 2 problèmes majeurs de développement d’application distribuées en Hadoop et la coordination de service avec Apache ZooKeeper (chapitre 11 & 12) ;
- Le traitement des objets connectés et données de capteurs avec Apache Storm (chapitre 13) ;
- La planification des jobs en Hadoop avec Oozie (chapitre 14) ;
- Le transfert des données du Data Warehouse vers Hadoop et d’Hadoop vers un Data Warehouse avec Sqoop (chapitre 14) ;
- Les 3 stratégies d’adoption à grande échelle d’Hadoop en entreprise (partie 7) ;
- Les 7 critères de sélection de votre distribution Hadoop (chapitre 16) ;
- Les 2 stratégies d’intégration d’Hadoop au système d’information d’une entreprise (chapitre 17) ;
- Les 2 grandes stratégies d’adoption d’Hadoop dans le cloud (chapitre 18) ;
- Les 7 critères d’évaluation et de sélection d’une offre Hadoop dans le cloud (chapitre 18) ;
- Les 5 facteurs qui sont à l’origine du Big Data et du monde dans lequel on vit actuellement (chapitre 19) ;
Cliquez sur le bouton suivant pour commander votre copie et vous initier l’écosystème Hadoop.