Certification de formation Hadoop

Formation Hadoop éligible CPF faisant partie de la certification « BIG DATA : Infrastructure »

0
Jours
0
Heures
0
CNCP
0
CPF
Formation certifiante disponible en :

Formation
intra-entreprise

Formation
inter-entreprises

Egalement disponible à distance en :
e-learning-tutore
Tous les détails et démonstrations en ligne du déroulement de la formation e-learning ou à distance tutoré : « Hadoop »
Prochaines dates
Planning et dates

« Hadoop »

Ville Session 1 Session 2
Paris 17-09-18 15-11-18
Lyon 17-09-18 15-11-18
Aix-en-Provence 17-09-18 15-11-18
Nous vous recommandons

Programme de formation:
Hadoop.

Hadoop est un Framework libre et open source écrit en Java destiné à faciliter la création d’applications distribuées au niveau du stockage des données et de leur traitement. C’est un outil complet pour gérer et analyser des données.

Objectifs

Quelles seront mes compétences à l’issue de la formation : Hadoop ?

À l’issue de la formation « BIG DATA : Hadoop», les apprenants auront les capacités de :

  1. Comprendre les principes de l’informatique parallèle
  2. Comprendre l’architecture Hadoop (HDFS et MapReduce)
  3. Utiliser des outils Big Data supplémentaires (Pig, Hive, HBase, etc.)
  4. Apprendre les bonnes pratiques de Big Data
  5. Définir l’architecture du projet Big Data
  6. Comprendre et utiliser NoSQL, Mahout et Oozie

Publics

Quels sont les profils concernés par le module : Hadoop ?

La formation certifiante « BIG DATA : Hadoop », s’adresse à tout public salarié, demandeur d’emploi ou en reconversion professionnelle et souhaitant acquérir des compétences en BIG DATA, notament:

  1. Directeurs/chefs de projet ou responsable métier
  2. Responsable système d’informations
  3. Développeurs informatiques
  4. Consultants en business intelligence
  5. Ingénieurs d’étude, de recherche et développement
  6. Architecte système et logiciel
  7. Consultants techniques
  8. Consultants business
  9. Statisticiens et Mathématiciens
  10. Data scientist (analyse de données) ou Data miner (fouilleur des données)
  11. Tout développeur ou informaticien souhaitant développer des compétences en analyse de données et BIG DATA

Prérequis

Quelles sont les qualifications requises pour suivre la formation : Hadoop ?

Posséder des connaissances de base des commandes Unix/Linux.

Programme détaillé

Comprendre Hadoop , le Map Reduce, réalisez un premier projet et les outils complémentaires.

Introduction

  1. Hadoop histoire et concepts
  2. Écosystème
  3. Distributions
  4. Architecture de haut niveau
  5. Hadoop mythes
  6. Défis Hadoop (matériel / logiciel)

HDFS

  1. Concepts (échelle horizontale, réplication, localisation des données, prise en charge du rack)
  2. Architecture
  3. Namenode (fonction, stockage, méta-données du système de fichiers et rapports de blocs)
  4. Namenode secondaire
  5. Namenode en mode veille
  6. Nœud de données
  7. Communications
  8. Gestionnaire / équilibreur de blocs
  9. Vérification de l’état / sécurité
  10. Chemin de lecture / écriture
  11. Navigation dans l’interface utilisateur HDFS
  12. Interaction de ligne de commande avec HDFS
  13. Abstraction du système de fichiers
  14. WebHDFS
  15. Lecture / écriture de fichiers à l’aide de l’API Java
  16. Obtention de données dans / hors de HDFS (Flume, Sqoop)
  17. Obtenir des statistiques HDFS
  18. Namenode et Federation
  19. Roadmap de HDFS

Atelier et cas pratique

Découvrir les techniques avancées d’Hadoop.

MapReduce

  1. Programmation parallèle avant MapReduce
  2. MapReduce concepts
  3. Daemons: jobtracker / tasktracker
  4. Phases: Driver, mapper, shuffle / tri et reducer
  5. Premier emploi MapReduce
  6. MapReduce UI
  7. Compteurs
  8. Cache distribué
  9. Partitionnement
  10. Configuration MapReduce
  11. Configuration des job
  12. Types et formats pour le MapReduce
  13. Tri
  14. Ordonnancement des Jobs
  15. MapReduce les bonnes pratiques
  16. MRUnit
  17. Optimiser MapReduce
  18. Penser à MapReduce
  19. YARN: architecture et utilisation

Atelier et cas pratique

Découvrir les outils PIG et HIVE.

Pig

  1. Introduction: principes et cas d’utilisation
  2. Pig versus MapReduce

Hive

  1. Introduction: principes et cas d’utilisation
  2. Environnement et configuration
  3. Hive et métadonnées
  4. Keywords pour Hive

Atelier et cas pratique

Découvrir HBASE et l’intégration du BIG DATA dans le monde réel.

HBase

  1. Créer un clavier virtuel à partir d’un arduino

Compétences en Big Data du monde réel et un hackathon

  1. Créer un clavier virtuel à partir d’un arduino

Atelier et cas pratique

Besoin d'un devis / d'un renseignement :

Adresse :

28 rue Xavier Bichat

72000 Le Mans

 

Téléphone :

02.43.52.36.45

 

Email :

contact@cegefos.fr

 

Suivez-nous :

[Form id= »6″]