Schulungsübersicht

Modul 1: Datenverwaltung in HDFS

  • Verschiedene Datenformate (JSON / Avro / Parquet)
  • Komprimierungsverfahren
  • Datenmaskierung
  • Praktische Übungen: Analyse verschiedener Datenformate; Aktivieren der Kompression

Modul 2: Fortgeschrittenes Pig

  • Benutzerdefinierte Funktionen (UDFs)
  • Einführung in Pig-Bibliotheken (ElephantBird / Data-Fu)
  • Laden komplexer strukturierter Daten mit Pig
  • Pig-Optimierung
  • Praktische Übungen: fortgeschrittenes Pig-Skripting, Parsen komplexer Datentypen

Modul 3: Fortgeschrittenes Hive

  • Benutzerdefinierte Funktionen (UDFs)
  • Komprimierte Tabellen
  • Hive-Leistungsoptimierung
  • Praktische Übungen: Erstellen kompakter Tabellen, Evaluieren von Tabellenformaten und Konfiguration

Modul 4: Fortgeschrittenes HBase

  • Fortgeschrittene Schemamodellierung
  • Kompression
  • Masseingabe von Daten
  • Vergleich breiter und langer Tabellen
  • HBase und Pig
  • HBase und Hive
  • HBase-Leistungsoptimierung
  • Praktische Übungen: Optimieren von HBase; Zugriff auf HBase-Daten mit Pig & Hive; Datenmodellierung mit Phoenix

Voraussetzungen

  • sicheren Umgang mit der Java-Programmiersprache (die meisten Programmierübungen sind in Java)
  • sicheren Umgang in einer Linux-Umgebung (Linux-Befehlszeile navigieren, Dateien mit vi / nano bearbeiten können)
  • grundlegendes Wissen über Hadoop.

Laborumgebung

Zero Install: Es ist keine Installation von Hadoop-Software auf den Rechnern der Teilnehmer erforderlich! Ein funktionsfähiger Hadoop-Cluster wird für die Teilnehmer bereitgestellt.

Die Teilnehmer benötigen Folgendes

 21 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Erfahrungsberichte (5)

Kommende Kurse

Verwandte Kategorien