Schulungsübersicht
Abschnitt 1: Data Management in HDFS
- Verschiedene Datenformate (JSON / Avro / Parquet)
- Komprimierungsschemata
- Datenmaskierung
- Übungen: Analysieren verschiedener Datenformate; Aktivieren der Kompression
Abschnitt 2: Fortgeschrittenes Pig
- Benutzerdefinierte Funktionen
- Einführung in Pig-Bibliotheken (ElephantBird / Data-Fu)
- Laden komplexer strukturierter Daten mit Pig
- Pig-Abstimmung
- Übungen: Fortgeschrittenes Pig Scripting, Parsen komplexer Datentypen
Abschnitt 3 : Fortgeschrittene Hive
- Benutzerdefinierte Funktionen
- Komprimierte Tabellen
- Hive Leistungsoptimierung
- Übungen : Erstellung komprimierter Tabellen, Auswertung von Tabellenformaten und Konfiguration
Abschnitt 4: HBase für Fortgeschrittene
- Fortgeschrittene Schemamodellierung
- Komprimierung
- Bulk Data Ingest
- Vergleich zwischen Wide-Table und Tall-Table
- HBase und Pig
- HBase und Hive
- HBase-Leistungsoptimierung
- Übungen: Tuning von HBase; Zugriff auf HBase-Daten von Pig & Hive; Verwendung von Phoenix für die Datenmodellierung
Voraussetzungen
- gute Kenntnisse der Java Programmiersprache (die meisten Programmierübungen sind in Java)
- Vertrautheit mit der Linux-Umgebung (in der Lage sein, in der Linux-Befehlszeile zu navigieren und Dateien mit vi / nano zu bearbeiten)
- gute Kenntnisse von Hadoop.
Laborumgebung
Null-Installation: Es besteht keine Notwendigkeit, Hadoop-Software auf den Rechnern der Studierenden zu installieren! Ein funktionierender Hadoop-Cluster wird den Studierenden zur Verfügung gestellt.
Die Studierenden benötigen Folgendes
- einen SSH-Client (Linux und Mac haben bereits SSH-Clients, für Windows wird Putty empfohlen)
- einen Browser für den Zugriff auf den Cluster. Wir empfehlen den Firefox-Browser
Erfahrungsberichte (5)
Die Live-Beispiele
Ahmet Bolat - Accenture Industrial SS
Kurs - Python, Spark, and Hadoop for Big Data
Maschinelle Übersetzung
Während der Übungen erklärte James mir jeden Schritt detaillierter, wo immer ich festsaß. Ich war komplett neu in NIFI. Er erläuterte den tatsächlichen Zweck von NIFI, sogar die Grundlagen wie Open Source. Er ging alle Konzepte von NIFI von Anfänger- bis Entwickler-Level durch.
Firdous Hashim Ali - MOD A BLOCK
Kurs - Apache NiFi for Administrators
Maschinelle Übersetzung
Vorbereitung und Organisation des Trainers sowie die Qualität der bereitgestellten Materialien auf GitHub.
Mateusz Rek - MicroStrategy Poland Sp. z o.o.
Kurs - Impala for Business Intelligence
Maschinelle Übersetzung
Dass ich es überhaupt hatte.
Peter Scales - CACI Ltd
Kurs - Apache NiFi for Developers
Maschinelle Übersetzung
praktische Dinge der Umsetzung, auch die Theorie wurde gut von Ajay vermittelt
Dominik Mazur - Capgemini Polska Sp. z o.o.
Kurs - Hadoop Administration on MapR
Maschinelle Übersetzung