
Live-Schulungen von Apache Hadoop vor Ort unter Anleitung von Dozenten demonstrieren durch interaktives praktisches Üben die Kernkomponenten des Hadoop-Ökosystems und wie diese Technologien zur Lösung großer Probleme eingesetzt werden können. Hadoop-Schulungen sind als "Onsite-Live-Training" oder "Remote-Live-Training" verfügbar. Live-Schulungen vor Ort können vor Ort beim Kunden vor Ort durchgeführt werden Österreich oder in NobleProg-Schulungszentren in Österreich . Das Remote-Live-Training wird über einen interaktiven Remote-Desktop durchgeführt. NobleProg - Ihr lokaler Schulungsanbieter
Machine Translated
Erfahrungsberichte
Die Tatsache, dass alle Daten und Software auf einer bereits vorbereiteten VM bereit waren, die vom Trainer auf externen Festplatten bereitgestellt wurde.
vyzVoice
Kurs: Hadoop for Developers and Administrators
Machine Translated
Ich mochte den Trainer am liebsten, wenn er reale Live-Beispiele gab.
Simon Hahn
Kurs: Administrator Training for Apache Hadoop
Machine Translated
Ich habe die großen Kompetenzen von Trainer wirklich genossen.
Grzegorz Gorski
Kurs: Administrator Training for Apache Hadoop
Machine Translated
Ich habe die vielen praktischen Übungen wirklich genossen.
Jacek Pieczątka
Kurs: Administrator Training for Apache Hadoop
Machine Translated
Mochte die interaktive Art des Lernens sehr.
Luigi Loiacono
Kurs: Data Analysis with Hive/HiveQL
Machine Translated
Es war ein sehr praktisches Training, ich mochte die praktischen Übungen.
Proximus
Kurs: Data Analysis with Hive/HiveQL
Machine Translated
Ich profitierte von dem guten Überblick, einer guten Balance zwischen Theorie und Übungen.
Proximus
Kurs: Data Analysis with Hive/HiveQL
Machine Translated
Ich genoss die dynamische Interaktion und "hands-on" das Thema, dank der virtuellen Maschine, sehr stimulierend !.
Philippe Job
Kurs: Data Analysis with Hive/HiveQL
Machine Translated
Ich profitierte von der Kompetenz und dem Wissen des Trainers.
Jonathan Puvilland
Kurs: Data Analysis with Hive/HiveQL
Machine Translated
Es war sehr praktisch, wir verbrachten die Hälfte der Zeit damit, Dinge in Clouded / Hardtop zu tun, verschiedene Befehle auszuführen, das System zu überprüfen und so weiter. Die zusätzlichen Materialien (Bücher, Websites, etc.) wurden wirklich geschätzt, wir müssen weiter lernen. Die Installationen waren ziemlich lustig und sehr praktisch, das Cluster-Setup von Grund auf war wirklich gut.
Ericsson
Kurs: Administrator Training for Apache Hadoop
Machine Translated
Der Trainer war fantastisch und kannte seine Sachen wirklich. Ich habe viel über die Software gelernt, die ich vorher nicht kannte, was mir sehr bei meinem Job helfen wird!
Steve McPhail - Alberta Health Services - Information Technology
Kurs: Data Analysis with Hive/HiveQL
Machine Translated
Die hohen Prinzipien über Hive, HDFS ...
Geert Suys - Proximus Group
Kurs: Data Analysis with Hive/HiveQL
Machine Translated
Die Handson. Die Mischung üben / theroy
Proximus Group
Kurs: Data Analysis with Hive/HiveQL
Machine Translated
Fulvio konnte den Business Case unseres Unternehmens erfassen und fast augenblicklich mit dem Kursmaterial korrelieren.
Samuel Peeters - Proximus Group
Kurs: Data Analysis with Hive/HiveQL
Machine Translated
Viele praktische Übungen.
Ericsson
Kurs: Administrator Training for Apache Hadoop
Machine Translated
Ambari-Management-Tool. Möglichkeit, praktische Hadoop Erfahrungen aus anderen Geschäftsbereichen als der Telekommunikation zu diskutieren.
Ericsson
Kurs: Administrator Training for Apache Hadoop
Machine Translated
Ich dachte, er hat einen tollen Job gemacht, die Erfahrung dem Publikum anzupassen. Diese Klasse ist hauptsächlich darauf ausgelegt, die Datenanalyse mit HIVE abzudecken, aber ich und meine Mitarbeiter übernehmen die HIVE-Administration ohne echte Datenanalyseaufgaben.
ian reif - Franchise Tax Board
Kurs: Data Analysis with Hive/HiveQL
Machine Translated
Die VM hat mir sehr gut gefallen Der Lehrer war sehr kenntnisreich über das Thema sowie andere Themen, er war sehr nett und freundlich Die Anlage in Dubai hat mir gefallen.
Safar Alqahtani - Elm Information Security
Kurs: Big Data Analytics in Health
Machine Translated
Trainingsthemen und Engagement des Trainers
Izba Administracji Skarbowej w Lublinie
Kurs: Apache NiFi for Administrators
Machine Translated
Kommunikation mit Personen, die eine Ausbildung besuchen.
Andrzej Szewczuk - Izba Administracji Skarbowej w Lublinie
Kurs: Apache NiFi for Administrators
Machine Translated
Praktische Dinge zu tun, auch die Theorie wurde von Ajay gut gedient
Dominik Mazur - Capgemini Polska Sp. z o.o.
Kurs: Hadoop Administration on MapR
Machine Translated
Übungen
Capgemini Polska Sp. z o.o.
Kurs: Hadoop Administration on MapR
Machine Translated
Nützlichkeit von Übungen
Algomine sp.z.o.o sp.k.
Kurs: Apache NiFi for Administrators
Machine Translated
Ich fand das Training gut, sehr informativ ... hätte aber über 4 oder 5 Tage verteilt sein können, sodass wir auf verschiedene Aspekte näher eingehen konnten.
Veterans Affairs Canada
Kurs: Hadoop Administration
Machine Translated
Ich habe das Training sehr genossen. Anton verfügt über viel Wissen und hat die nötige Theorie sehr gut zugänglich angelegt. Es ist großartig, dass das Training eine Menge interessanter Übungen war, so dass wir von Anfang an mit der Technologie in Kontakt waren, die wir kennen.
Szymon Dybczak - Algomine sp.z.o.o sp.k.
Kurs: Apache NiFi for Administrators
Machine Translated
Ich fand, dass dieser Kurs einen großartigen Überblick gab und schnell einige Bereiche berührte, die ich nicht einmal in Betracht gezogen hatte.
Veterans Affairs Canada
Kurs: Hadoop Administration
Machine Translated
Ich mochte wirklich Arbeitsübungen mit Cluster, um die Leistung von Knoten über Cluster und erweiterte Funktionalität zu sehen.
CACI Ltd
Kurs: Apache NiFi for Developers
Machine Translated
Ajay war ein sehr erfahrener Berater und konnte all unsere Fragen beantworten und sogar Vorschläge zu Best Practices für das Projekt machen, an dem wir gerade arbeiten.
CACI Ltd
Kurs: Apache NiFi for Administrators
Machine Translated
Praktischer Teil. Die Aufgaben wurden für die diskutierten Themen gut ausgewählt.
Rossmann SDP
Kurs: HBase for Developers
Machine Translated
Hadoop Unterkategorien
Apache Hadoop Kurspläne
Diese Live-Training (online oder online) richtet sich an Entwickler, die Spark, Hadoop und Python verwenden und integrieren möchten, um große und komplexe Datensätze zu verarbeiten, zu analysieren und zu transformieren.
Am Ende dieser Ausbildung können die Teilnehmer:
Erstellen Sie die notwendige Umgebung, um die Verarbeitung von großen Daten mit Spark, Hadoop, und Python zu beginnen. Verständnis der Eigenschaften, Kernkomponenten und Architektur von Spark und Hadoop. Erfahren Sie, wie Sie Spark, Hadoop, und Python für die Big Data-Verarbeitung integrieren. Entdecken Sie die Werkzeuge im Spark-Ökosystem (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka und Flume). Erstellen Sie zusammenarbeitende Filter Empfehlungssysteme ähnlich wie Netflix, YouTube, Amazon, Spotify und Google. Verwenden Sie Apache Mahout, um Maschinenlearning-Algorithmen zu skalieren.
Format des Kurses
Interaktive Unterricht und Diskussion. Viele Übungen und Übungen. Hand-on Implementierung in einem Live-Lab-Umfeld.
Kursanpassungsoptionen
Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
Course goal:
Getting knowledge regarding Hadoop cluster administration
Der Kurs richtet sich an IT-Spezialisten, die eine Lösung zum Speichern und Verarbeiten großer Datenmengen in einer verteilten Systemumgebung suchen
Go al:
Vertiefte Kenntnisse in der Hadoop Clusterverwaltung.
This course is intended to demystify big data/hadoop technology and to show it is not difficult to understand.
Zielgruppe : Entwickler
Dauer: drei Tage
Format: Vorträge (50%) und praktische Übungen (50%).
We will walk a developer through HBase architecture and data modelling and application development on HBase. It will also discuss using MapReduce with HBase, and some administration topics, related to performance optimization. The course is very hands-on with lots of lab exercises.
Duration : 3 days
Audience : Developers & Administrators
„… Die Materialien waren sehr gut vorbereitet und gründlich abgedeckt. Das Labor war sehr hilfreich und gut organisiert. “
- Andrew Nguyen, Hauptintegrations-DW-Ingenieur, Microsoft Online Advertising
Publikum
Hadoop Administratoren
Format
Vorlesungen und praktische Übungen, ungefähr 60% Vorlesungen, 40% Übungen.
Audience
Business Analysts
Duration
three days
Format
Lectures and hands on labs.
- Developers
Format of the Course
- Lectures, hands-on practice, small tests along the way to gauge understanding
Der Schwerpunkt des Kurses liegt auf der Datenmanipulation und -transformation.
Zu den Tools im Hadoop Ökosystem gehört die Verwendung von Pig und Hive beide häufig für die Datenumwandlung und -manipulation verwendet werden.
Dieses Training befasst sich auch mit Leistungsmetriken und Leistungsoptimierung.
Der Kurs ist ganz praktisch und wird durch Präsentationen der theoretischen Aspekte unterstrichen.
Audience
- Project Managers wishing to implement Hadoop into their existing development or IT infrastructure
- Project Managers needing to communicate with cross-functional teams that include big data engineers, data scientists and business analysts
Dieses von Lehrern geleitete Live-Training führt in die Prinzipien von Messaging-Systemen und der verteilten Stream-Verarbeitung ein und führt die Teilnehmer durch die Erstellung eines Samza-basierten Beispielprojekts und die Auftragsausführung.
Am Ende dieser Schulung können die Teilnehmer:
- Verwenden Sie Samza, um den Code zum Erstellen und Verarbeiten von Nachrichten zu vereinfachen.
- Entkoppeln Sie die Verarbeitung von Nachrichten aus einer Anwendung.
- Verwenden Sie Samza, um zeitnahe asynchrone Berechnungen durchzuführen.
- Verwenden Sie die Stream-Verarbeitung, um eine höhere Abstraktionsebene für Messagingsysteme bereitzustellen.
Publikum
- Entwickler
Format des Kurses
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
In diesem Instructor-leitet, Live-Training lernen die Teilnehmer, wie man Alluxio verschiedene Computing-Frameworks mit Speicher-Systemen zu verwenden und effizient Multi-Petabyte-Skala-Daten zu verwalten, während sie durch die Erstellung einer Anwendung mit Alluxio gehen.
Am Ende dieser Ausbildung können die Teilnehmer:
Entwickeln Sie eine Anwendung mit Alluxio Verbinden Sie Big Data-Systeme und Anwendungen während der Erhaltung eines Namespaces Effizient Wert aus großen Daten in jedem Speicherformat extrahieren Verbesserung der Workload Performance Entfernen und verwalten Alluxio unabhängig oder klusteriert
Publikum
Datenwissenschaftler Entwickler Systemadministrator
Format des Kurses
Teilverhandlung, Teildiskussion, Übungen und schwere Übungen
In diesem von einem Kursleiter geleiteten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie Apache NiFi in einer Live-Laborumgebung Apache NiFi und verwaltet wird.
Am Ende dieser Schulung können die Teilnehmer:
- Installieren und konfigurieren Sie Apachi NiFi.
- Beschaffen, transformieren und verwalten Sie Daten aus unterschiedlichen, verteilten Datenquellen, einschließlich Datenbanken und Big Data Lakes.
- Datenflüsse automatisieren.
- Aktivieren Sie die Streaming-Analyse.
- Wenden Sie verschiedene Ansätze für die Datenaufnahme an.
- Verwandeln Sie Big Data in Business Insights.
Format des Kurses
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Grundlagen der Flow-basierten Programmierung kennen, während sie mit Apache NiFi eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren Apache NiFi .
Am Ende dieser Schulung können die Teilnehmer:
- Verstehen Sie die Architektur und die Datenflusskonzepte von NiFi.
- Entwickeln Sie Erweiterungen mit NiFi und APIs von Drittanbietern.
- Entwickeln Sie Ihren eigenen Apache Nifi Prozessor.
- Erfassen und verarbeiten Sie Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen.
Format des Kurses
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
In diesem Instructor-leitet, Live-Training lernen die Teilnehmer, wie man mit Hadoop, MapReduce, Pig und Spark zu arbeiten, indem sie durch mehrere Beispiele und verwendete Fälle gehen.
Am Ende dieser Ausbildung können die Teilnehmer:
Verständnis der Grundkonzepte hinter Hadoop, MapReduce, Pig und Spark Verwenden Sie Python mit Hadoop Distributed File System (HDFS), MapReduce, Pig und Spark Verwenden Sie Snakebite, um in HDFS programmierbar zugreifen zu können Python Verwenden Sie mrjob, um MapReduce Jobs in zu schreiben Python Schreiben Sie Spark-Programme mit Python Erweitern Sie die Funktionalität der Schweine mit Python UDFs Verwaltung von MapReduce Jobs und Pig Skripts mit Luigi
Publikum
Entwickler IT Fachleute
Format des Kurses
Teilverhandlung, Teildiskussion, Übungen und schwere Übungen
In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie mit Sqoop Daten aus einer traditionellen relationalen Datenbank in einen Hadoop Speicher wie HDFS oder Hive importieren und umgekehrt.
Am Ende dieser Schulung können die Teilnehmer:
- Installieren und konfigurieren Sie Sqoop
- Importieren Sie Daten aus My SQL in HDFS und Hive
- Importieren Sie Daten aus HDFS und Hive in My SQL
Publikum
- Systemadministratoren
- Dateningenieure
Format des Kurses
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Hinweis
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
Die Gesundheitsbranche verfügt über riesige Mengen komplexer heterogener medizinischer und klinischer Daten. Die Anwendung von Big-Data-Analysen auf Gesundheitsdaten bietet ein großes Potenzial für die Gewinnung von Erkenntnissen zur Verbesserung der Gesundheitsversorgung. Die enorme Anzahl dieser Datensätze ist jedoch eine große Herausforderung für Analysen und praktische Anwendungen in einem klinischen Umfeld.
In diesem von Lehrern geleiteten Live-Training (Remote) lernen die Teilnehmer, wie Big-Data-Analysen im Gesundheitsbereich durchgeführt werden, während sie eine Reihe von praktischen Live-Laborübungen absolvieren.
Am Ende dieser Schulung können die Teilnehmer:
- Installieren und konfigurieren Sie Big Data-Analysetools wie Hadoop MapReduce und Spark
- Verstehen Sie die Eigenschaften von medizinischen Daten
- Wenden Sie Big-Data-Techniken an, um mit medizinischen Daten umzugehen
- Studieren Sie Big-Data-Systeme und -Algorithmen im Kontext von Gesundheitsanwendungen
Publikum
- Entwickler
- Data Scientists
Format des Kurses
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben.
Hinweis
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
Dieser Instructor-leitet, Live-Training (online oder on-site) richtet sich an Systemadministratoren, die lernen möchten, wie man Hadoop Clusters innerhalb ihrer Organisation einrichten, implementieren und verwalten möchte.
Am Ende dieser Ausbildung können die Teilnehmer:
Installieren und konfigurieren Sie Apache Hadoop. Die vier Hauptkomponenten des Hadoop Ökosystems verstehen: HDFS, MapReduce, YARN und Hadoop Common. Verwenden Sie das Distributed File System (HDFS), um einen Cluster auf Hunderte oder Tausende von Knoten zu beschleunigen. Installieren Sie HDFS, um als Speichermotor für On-Premise Spark-Einstellungen zu funktionieren. Installieren Sie Spark für den Zugriff auf alternative Speicherlösungen wie Amazon S3 und NoSQL Datenbanksysteme wie Redis, Elasticsearch, Couchbase, Aerospike, usw. Verwaltungsaufgaben wie die Bereitstellung, Verwaltung, Überwachung und Sicherung eines Apache Hadoop Cluster durchführen.
Format des Kurses
Interaktive Unterricht und Diskussion. Viele Übungen und Übungen. Hand-on Implementierung in einem Live-Lab-Umfeld.
Kursanpassungsoptionen
Um eine benutzerdefinierte Ausbildung für diesen Kurs zu beantragen, wenden Sie sich bitte an uns, um zu arrangieren.
Impala ermöglicht es Benutzern, Low-Latency-Anfragen zu Daten zu veröffentlichen, die in Hadoop Distributed File System und Apache Hbase gespeichert werden, ohne dass Datenbewegung oder Transformation erforderlich ist.
Publikum
Dieser Kurs richtet sich an Analysten und Datenwissenschaftler, die eine Analyse auf Daten durchführen, die in Hadoop über Business Intelligence oder SQL Tools gespeichert werden.
Nach diesem Kurs können die Delegierten
Erstrecken Sie sinnvolle Informationen aus Hadoop Clusters mit Impala. Schreiben Sie spezifische Programme, um zu erleichtern Business Intelligence in Impala SQL Dialect. Die Schwierigkeiten [ 4 ]
In diesem von Lehrern geleiteten Live-Training lernen die Teilnehmer die von Ambari bereitgestellten Management-Tools und -Praktiken kennen, um Hadoop Cluster erfolgreich zu verwalten.
Am Ende dieser Schulung können die Teilnehmer:
- Richten Sie mit Ambari einen Live- Big Data Cluster ein
- Wenden Sie die erweiterten Funktionen und Funktionen von Ambari auf verschiedene Anwendungsfälle an
- Fügen Sie Knoten nach Bedarf nahtlos hinzu und entfernen Sie sie
- Verbessern Sie die Leistung eines Hadoop Clusters durch Optimieren und Optimieren
Publikum
- DevOps
- Systemadministratoren
- DBAs
- Hadoop Testprofis
Format des Kurses
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
In diesem von einem Kursleiter durchgeführten Live-Training (vor Ort oder per Fernzugriff) wird die Hortonworks Data Platform (HDP) und die Teilnehmer durch die Bereitstellung der Spark + Hadoop Lösung geführt.
Am Ende dieser Schulung können die Teilnehmer:
- Verwenden Sie Hortonworks, um Hadoop zuverlässig in großem Maßstab auszuführen.
- Vereinheitlichen Sie die Sicherheits-, Governance- und Betriebsfunktionen von Hadoop mit den agilen Analyse-Workflows von Spark.
- Verwenden Sie Hortonworks, um alle Komponenten in einem Spark-Projekt zu untersuchen, zu validieren, zu zertifizieren und zu unterstützen.
- Verarbeiten Sie verschiedene Arten von Daten, einschließlich strukturierter, unstrukturierter, bewegter und ruhender Daten.
Format des Kurses
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
Last Updated: