image

durée formation certifiante Hadoop

4 jours / 28 heures

Formation Hadoop

Disponible en Inter et Intra entreprise.

formation certifiante CNCP CPF Hadoop

Formation certifiante recensée à l'inventaire CNCP et éligible CPF

Module Hadoop faisant parti de la

certification BIG DATA.

date prochaine session formation informatique et numérique

Prochaine dates et sessions

Pour connaitre les dates de la prochaine session dans la ville la plus proche,

CLIQUEZ ICI.

Hadoop

Hadoop est un Framework libre et open source écrit en Java destiné à faciliter la création d'applications distribuées au niveau du stockage des données et de leur traitement. C’est un outil complet pour gérer et analyser des données.

Les objectifs

A l’issue de la formation « BIG DATA : Hadoop», les apprenants auront les capacités de :
  1. Comprendre les principes de l'informatique parallèle
  2. Comprendre l'architecture Hadoop (HDFS et MapReduce)
  3. Utiliser des outils Big Data supplémentaires (Pig, Hive, HBase, etc.)
  4. Apprendre les bonnes pratiques de Big Data
  5. Définir l'architecture du projet Big Data
  6. Comprendre et utiliser NoSQL, Mahout et Oozie.

Le public

La formation certifiante « BIG DATA : Hadoop », s’adresse à tout public salarié, demandeur d’emploi ou en reconversion professionnelle et souhaitant acquérir des compétences en BIG DATA, notament:
  1. Directeurs/chefs de projet ou responsable métier
  2. Responsable système d’informations
  3. Développeurs informatiques
  4. Consultants en business intelligence
  5. Ingénieurs d’étude, de recherche et développement
  6. Architecte système et logiciel
  7. Consultants techniques
  8. Consultants business
  9. Statisticiens et Mathématiciens
  10. Data scientist (analyse de données) ou Data miner (fouilleur des données)
  11. Tout développeur ou informaticien souhaitant développer des compétences en analyse de données et BIG DATA
  

Les prérequis

Posséder des connaissances de base des commandes Unix/Linux.
Les utilitaires
Pour le bon déroulement de la formation BIG DATA : Hadoop, voici une liste non exhaustive des outils indispensables :
  1. Un navigateur Web - toute version récente de Chrome, Firefox ou Internet Explorer, avec une version récente de Flash Player
  2. Un client SSH.
Programme détaillé

Comprendre Hadoop , le Map Reduce, réalisez un premier projet et les outils complémentaires.   

Introduction 

  1. Hadoop histoire et concepts
  2. Écosystème
  3. Distributions
  4. Architecture de haut niveau
  5. Hadoop mythes
  6. Défis Hadoop (matériel / logiciel).

HDFS  

  1. Concepts (échelle horizontale, réplication, localisation des données, prise en charge du rack)
  2. Architecture
  3. Namenode (fonction, stockage, méta-données du système de fichiers et rapports de blocs)
  4. Namenode secondaire
  5. Namenode en mode veille
  6. Nœud de données
  7. Communications
  8. Gestionnaire / équilibreur de blocs
  9. Vérification de l’état / sécurité
  10. Chemin de lecture / écriture
  11. Navigation dans l'interface utilisateur HDFS
  12. Interaction de ligne de commande avec HDFS
  13. Abstraction du système de fichiers
  14. WebHDFS
  15. Lecture / écriture de fichiers à l'aide de l'API Java
  16. Obtention de données dans / hors de HDFS (Flume, Sqoop)
  17. Obtenir des statistiques HDFS
  18. Namenode et Federation
  19. Roadmap de HDFS .

Atelier et cas pratique 

Découvrir les techniques avancées d’Hadoop.   

MapReduce 

  1. Programmation parallèle avant MapReduce
  2. MapReduce concepts
  3. Daemons: jobtracker / tasktracker
  4. Phases: Driver, mapper, shuffle / tri et reducer
  5. Premier emploi MapReduce
  6. MapReduce UI
  7. Compteurs
  8. Cache distribué
  9. Partitionnement
  10. Configuration MapReduce
  11. Configuration des job
  12. Types et formats pour le MapReduce
  13. Tri
  14. Ordonnancement des Jobs
  15. MapReduce les bonnes pratiques
  16. MRUnit
  17. Optimiser MapReduce
  18. Penser à MapReduce
  19. YARN: architecture et utilisation.

Atelier et cas pratique 

Découvrir les outils PIG et HIVE.   

Pig 

  1. Introduction: principes et cas d'utilisation
  2. Pig versus MapReduce.

Hive 

  1. Introduction: principes et cas d'utilisation
  2. Environnement et configuration
  3. Hive et métadonnées
  4. Keywords pour Hive.

Atelier et cas pratique 

Découvrir HBASE et l’intégration du BIG DATA dans le monde réel.   

HBase 

  1. Histoire et concepts
  2. Architecture
  3. HBase versus RDBMS
  4. HBase shell
  5. HBase Java API
  6. Lecture / Ecriture
  7. Conception de schéma.

Compétences en Big Data du monde réel et un hackathon 

  1. Les modèles de conception NoSQL: allant de SQL à NoSQL
  2. Collecte de données Smart Meter avec Flume
  3. HDFS et HBase
  4. Analyser les données des compteurs intelligents avec Pig and Hive
  5. Analyse intelligente avec Mahout
  6. Planification du flux de travail complet avec Oozie.

Atelier et cas pratique 

Besoin de devis/ Renseignements

Veuillez remplir le formulaire de contact

Merci de remplir le formulaire de contact. Un de nos conseillers traitera votre demande rapidement.

Please type your full name.
Invalid email address.
Veuillez saisir votre numéro de téléphone.
Please tell us how big is your company.
Entrer le nom de votre société si vous êtes salarié.
Please tell us how big is your company.
Entrée non valide
Robot Actualisation Entrée non valide