Maîtrisez Spark pour le Big Data avec Scala

Découvrez dans cette formation, 3 sessions de cours vidéo de 2 h 15 min ainsi qu'un livre numérique très pratique de 35 pages  pour apprendre à développer des applications Big Data avec Spark en Scala.

Vous souhaitez devenir Data Engineer ? Vous souhaitez vous réorienter vers les métiers de la Data ? Alors vous devez savoir que la maîtrise de Spark est obligatoire pour les postes de Data Engineer ou de Tech Lead.

Aussi, selon les estimations réalisées par Glassdoor et Indeed,  le salaire moyen d’un(e) Ingénieur Big Data (H/F) pour des profils seniors Spark en île-de-France est de 52 917 € par an.

Nous vous offrons gratuitement ce kit de formation composée de 2h15 de session de cours vidéo et un livre numérique pratique de 35 pages pour vous aider à démarrer votre montée en compétences sur Spark avec Scala.

Voici les 3 sessions de cours vidéo exclusives qui composent ce kit :

  • Session vidéo #1: Installer Spark en Standalone sur son PC (1h08 min)
  • Session video #2: Interroger les bases MySQL avec Spark (48 min)
  • Session video #3: Déployer une application Spark en production (13 min)

Sommaire des sessions de cours vidéo

  • Session 1:Installer Apache Spark en standalone sur son PC

    L’une des plus grande difficulté dans l’apprentissage de Spark concerne la mise en place d’un environnement. En effet, Spark s’exécute sur un cluster et il est quasiment inenvisageable de trouver un cluster pour des fins personnelles. Dans ce tutoriel long (62 min), nous allons vous expliquer pas-à-pas comment installer Spark sur votre PC pour commencer à développer des applications Big Data.

  • Session 2 : Interroger les bases de données MySQL avec Spark

    En tant que Data Engineer, 60% de vos tâches de développement consisteront à interroger les données hébergées dans des SGBD Distants comme MySQL, Oracle, PostgreSQL, Microsoft SQL Server, pour les extraire et produire les indicateurs nécessaires pour soutenir la prise de décision en entreprise. Spark offre des connectivités qui permettent d’interroger les données hébergées  à l’extérieur de Spark à l’aide des connecteurs JDBC/ODBC. Dans cette session de cours de 48 min, nous allons vous montrer comment interroger une base de données MySQL avec Spark

  • Session 3 : Déployer une application Spark en Production

    Peu importe l’application Spark que vous réussirez à développer, si vous ne savez pas la déployer en production, elle ne sera jamais utile à l’entreprise. Le déploiement d’une application Spark fait appel à de nombreuses techniques et outils différents (Maven, YARN, Kubernetes, les protocoles FTP/SSH). Ainsi, ce n’est pas tout de savoir utiliser Spark, vous devez également comprendre la compilation, les JVM, la génération d’un package .jar  et les orchestrateurs de ressources comme YARN ou Kubernetes. Dans ce tutorie de 13 min, nous allons vous expliquer pas-à-pas comment déployer simplement une application Spark.

Apprendre le Big Data par la pratique avec Apache Spark

En plus de ces 3 sessions vidéo de 2h15 min, Nous vous offrons ce livre numérique très pratique dans lequel vous apprendrez à manipuler les abstractions de Spark, à savoir : les Data Frame, les RDD, et les Data Sets

Juvénal CHOKOGOUE

Juvénal CHOKOGOUE est spécialisé sur les sujets de valorisation des données à large échelle depuis 2011. Il est également l'auteur des ouvrages "Hadoop - Devenez opérationnel dans le monde du Big Data" paru chez les éditions ENI et "Maîtrisez l'utilisation des technologies Hadoop" paru chez les éditions Eyrolles