[wpms_breadcrumb reverse="0"]
Les distributions HADOOP

Hadoop Hortonworks : administration avec Ambari

Reference : HAHAA
3 jours - 1,950 € € HT
Prochaines sessions
  • Le 03/11/2020
Hadoop Hortonworks : administration avec Ambari
Objectifs

  • Connaître les principes du framework Hadoop et savoir l’installer, le configurer et l’administrer avec Ambari (tableaux de bord, supervision, gestion des services, etc …)

Pré requis

  • Connaissance des commandes des systèmes unix/linux et des bases TCP/IP

Modalités pédagogiques

Cours dispensé en mode présentiel avec une alternance d’apports théoriques et méthodologiques, et de mises en situations pratiques

Public visé

Chefs de projet, administrateurs et toute personne souhaitant mettre en oeuvre un système distribué avec Hadoop.Les travaux pratiques sont réalisés sur une distribution Hadoop Hortonworks.

Inscription

Programmes de Hadoop Hortonworks : administration avec Ambari

Introduction

  • Les fonctionnalités du framework Hadoop.Les différentes versions.
    Distributions : Apache, Cloudera, Hortonworks, EMR, MapR, DSE. Spécificités de chaque distribution.
    Architecture et principe de fonctionnement. Terminologie : NameNode, DataNode, ResourceManager, NodeManager.
    Rôle des différents composants.Le projet et les modules : Hadoop Common, HDFS, YARN, Spark, MapReduce.Oozie, Pig, Hive, HBase, …

Les outils Hadoop

  • Infrastructure/Mise en oeuvre :Avro, Ambari, Zookeeper, Pig, Tez, Oozie, Falcon, Pentaho
    Vue d’ensemble. Gestion des données.Exemple de sqoop.Restitution : webhdfs, hive, Hawq, Mahout,ElasticSearch ..
    Outils complémentaires:Spark, SparkQL, SparkMLib, Storm, BigTop, Zebra, de développement : Cascading, Scalding, Flink/Pachyderm, d’analyse : RHadoop, Hama, Chukwa, kafka

Installation et configuration

  • Trois modes d’installation : local, pseudo-distribué, distribué
    Première installation.Mise en oeuvre avec un seul noeud Hadoop.Configuration de l’environnement,étude des fichiers de configuration :
    core-site.xml, hdfs-site.xml, mapred-site.xml, yarn-site.xml et capacity-scheduler.xml
    Création des users pour les daemons hdfs et yarn,droits d’accès sur les exécutables et répertoires.
    Lancement des services.Démarrage des composants : hdfs, hadoop-daemon, yarn-daemon, etc ..
    Gestion de la grappe, différentes méthodes :ligne de commandes, API Rest, serveur http intégré, APIS natives
    Exemples en ligne de commandes avec hdfs, yarn, mapred. Présentation des fonctions offertes par le serveur http
    Travaux pratiques :Organisation et configuration d’une grappe hadoop

Administration Hadoop

  • Outils complémentaires à yarn et hdfs : jConsole, jconsole yarn. Exemples sur le suivi de charges, l’analyse des journaux.
    Principe de gestion des noeuds, accès JMX.
    Travaux pratiques : mise en oeuvre d’un client JMX
    Administration HDFS :présentation des outils de stockage des fichiers, fsck, dfsadmin.Mise en oeuvre sur des exemples simples de récupération de fichiers
    Gestion centralisée de caches avec Cacheadmin. Déplacement d’un NameNode. Mise en mode maintenance.

Haute disponibilité

  • Mise en place de la haute disponibilité sur une distribution Ambari.
    Travaux pratiques :Passage d’un système HDFS en mode HA

Sécurité

  • Mécanismes de sécurité et mise en oeuvre pratique :activation de la sécurité avec Kerberos dans core-site.xml, et dans hdfs-site.xml pour les NameNode et DataNode. Sécurisation de yarn avec la mise en oeuvre d’un proxy et d’un Linux Container Executor.
    Travaux pratiques :Mise en place de la sécurité Kerberos sur une distribution Ambari. Création des utilisateurs. Travaux sur les droits d’accès et les droits d’exécution. Impact au niveau des files Yarn, Oozie et Tez.

Exploitation

  • Installation d’une grappe Hadoop avec Ambari. Tableau de bord. Lancement des services.Principe de la supervision des éléments par le NodeManager.
    Monitoring graphique avec Ambari.Présentation de Ganglia,Kibana
    Travaux pratiques :Visualisation des alertes en cas d’indisponibilité d’un noeud. Configuration des logs avec log4j.