Von Lehrern geleitete Live-Stream-Processing-Schulungen online oder vor Ort veranschaulichen durch interaktive Diskussionen und praktische Übungen die Grundlagen und fortgeschrittenen Themen der Stream-Verarbeitung. Die Stream-Processing-Schulung ist als „Online-Live-Schulung“ oder „Vor-Ort-Live-Schulung“ verfügbar. Das Online-Live-Training (auch „Remote-Live-Training“) wird über einen interaktiven Remote-Desktop durchgeführt. Live-Schulungen vor Ort können vor Ort beim Kunden in Innsbruck oder in den NobleProg-Schulungszentren in Innsbruck durchgeführt werden. NobleProg – Ihr lokaler Schulungsanbieter
NobleProg Innsbruck
Valiergasse 58, Innsbruck, Austria, 6020
Überblick
Unsere Schulungsräumlichkeiten befinden sich in der Valiergasse 58 in Innsbruck und bieten optimale Trainingsbedingungen für Ihre Bedürfnisse.
Anfahrt
Die NobleProg-Schulungsräumlichkeiten liegen verkehrsgünstig nahe des Hauptbahnhofs, die Autobahnen A12 und A13 sind gut erreichbar.
Parkplätze
Rund um unsere Schulungsräume gibt es in den umliegenden Straßen Parkmöglichkeiten.
Lokale Infrastruktur
Im Bereich der Innenstadt gibt es zahlreiche Restaurants und auch Hotels sind in Laufnähe.
Apache Beam ist ein quelloffenes, einheitliches Programmiermodell für die Definition und Ausführung von parallelen Datenverarbeitungspipelines. Seine Stärke liegt in der Fähigkeit, sowohl Batch- als auch Streaming-Pipelines auszuführen, wobei die Ausführung von einem der von Beam unterstützten verteilten Verarbeitungs-Backends übernommen wird: Apache Apex, Apache Flink, Apache Spark, und Google Cloud Dataflow. Apache Beam ist nützlich für ETL-Aufgaben (Extrahieren, Transformieren und Laden) wie das Verschieben von Daten zwischen verschiedenen Speichermedien und Datenquellen, das Transformieren von Daten in ein gewünschtes Format und das Laden von Daten in ein neues System.
In dieser von einem Trainer geleiteten Live-Schulung (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie sie die Apache Beam-SDKs in einer Java- oder Python-Anwendung implementieren, die eine Datenverarbeitungspipeline zur Zerlegung eines großen Datensatzes in kleinere Teile für eine unabhängige, parallele Verarbeitung definiert.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
Installieren und konfigurieren Apache Beam.
ein einziges Programmiermodell zu verwenden, um sowohl Batch- als auch Stream-Verarbeitung innerhalb ihrer Java oder Python Anwendung auszuführen.
Pipelines über mehrere Umgebungen hinweg auszuführen.
Format des Kurses
Teilweise Vorlesung, teilweise Diskussion, Übungen und umfangreiche praktische Übungen
Hinweis
Dieser Kurs wird in Zukunft Scala verfügbar sein. Bitte kontaktieren Sie uns zur Absprache.
Diese Live-Schulung (vor Ort oder per Fernzugriff) richtet sich an Techniker, die Confluent (eine Distribution von Kafka) verwenden möchten, um eine Echtzeit-Datenverarbeitungsplattform für ihre Anwendungen zu erstellen und zu verwalten.
Am Ende dieser Schulung können die Teilnehmer:
Confluent Platform installieren und konfigurieren.
Confluents Verwaltungstools und -dienste nutzen, um Kafka einfacher zu betreiben.
Eingehende Stream-Daten speichern und verarbeiten.
Kafka-Cluster optimieren und verwalten.
Datensätze sichern.
Format des Kurses
Interaktive Vorlesung und Diskussion.
Viele Übungen und Praxis.
Händische Implementierung in einer Live-Lab-Umgebung.
Anpassungsoptionen für den Kurs
Dieser Kurs basiert auf der Open-Source-Version von Confluent: Confluent Open Source.
Für eine angepasste Ausbildung zu diesem Kurs wenden Sie sich bitte an uns, um dies zu vereinbaren.
Diese Live-Schulung in Innsbruck (online oder vor Ort) führt die Teilnehmer in die Prinzipien und Ansätze der verteilten Stream- und Batch-Datenverarbeitung ein und führt sie durch die Erstellung einer Echtzeit-Daten-Streaming-Anwendung in Apache Flink.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
Eine Umgebung für die Entwicklung von Datenanalyseanwendungen einrichten.
Verstehen, wie die graphverarbeitende Bibliothek (Gelly) von Apache Flink funktioniert.
Flink-basierte, fehlertolerante Daten-Streaming-Anwendungen paketieren, ausführen und überwachen.
Verschiedene Workloads verwalten.
Fortgeschrittene Analysen durchführen.
Einrichten eines Flink-Clusters mit mehreren Knoten.
Messen und Optimieren der Leistung.
Flink mit verschiedenen Big Data Systemen integrieren.
Flink-Funktionen mit denen anderer Big-Data-Verarbeitungs-Frameworks vergleichen.
In dieser von einem Trainer geleiteten Live-Schulung (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie sie verschiedene Stream Processing Frameworks mit bestehenden Big-Data-Speichersystemen und zugehörigen Softwareanwendungen und Microservices einrichten und integrieren können.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
Installieren und Konfigurieren verschiedener Stream Processing Frameworks, wie Spark Streaming und Kafka Streaming.
Das am besten geeignete Framework für die jeweilige Aufgabe verstehen und auswählen.
Daten kontinuierlich, gleichzeitig und Datensatz für Datensatz verarbeiten.
Lösungen mit bestehenden Datenbanken, Data Warehouses, Data Lakes usw. integrieren Stream Processing.
Integrieren Sie die am besten geeignete Stream-Processing-Bibliothek in Unternehmensanwendungen und Microservices.
Diese von einem Kursleiter geleitete Live-Schulung in Innsbruck (online oder vor Ort) richtet sich an Dateningenieure, Datenwissenschaftler und Programmierer, die die Apache Kafka-Funktionen in Datenströmen mit Python nutzen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein, Apache Kafka zur Überwachung und Verwaltung von Bedingungen in kontinuierlichen Datenströmen mit Python-Programmierung zu verwenden.
Kafka Streams ist eine clientseitige Bibliothek zum Erstellen von Anwendungen und Mikrodiensten, deren Daten an ein und von einem Kafka-Messagingsystem übertragen werden. Traditionell hat sich Apache Kafka auf Apache Spark oder Apache Storm , um Daten zwischen Nachrichtenproduzenten und -konsumenten zu verarbeiten. Durch Aufrufen der Kafka Streams-API aus einer Anwendung heraus können Daten direkt in Kafka verarbeitet werden, ohne dass die Daten zur Verarbeitung an einen separaten Cluster gesendet werden müssen.
In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie Kafka-Streams in eine Reihe von Java Beispielanwendungen integrieren, die Daten zur Stream-Verarbeitung an Apache Kafka und von diesem weitergeben.
Am Ende dieser Schulung können die Teilnehmer:
Kafka Streams-Funktionen und Vorteile gegenüber anderen Stream-Verarbeitungsframeworks verstehen
Daten direkt innerhalb eines Kafka-Klusters verarbeiten
Eine Java oder Scala-Anwendung oder -Mikrodienst schreiben, der mit Kafka und Kafka Streams integriert ist
Konkise Code schreiben, der Eingabethemen von Kafka in Ausgabetopics von Kafka transformiert
Die Anwendung erstellen, verpacken und bereitstellen
Publikum
Entwickler
Kursformat
Teil Vorlesung, teil Diskussion, Übungen und intensive praktische Arbeit
Anmerkungen
Für eine angepasste Schulung zu diesem Kurs wenden Sie sich bitte an uns, um dies zu vereinbaren.
Diese von einem Kursleiter geleitete Live-Schulung in Innsbruck (online oder vor Ort) richtet sich an Entwickler, die Apache Kafka Stream Processing implementieren möchten, ohne Code zu schreiben.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
Confluent KSQL zu installieren und zu konfigurieren.
eine Stream-Processing-Pipeline nur mit SQL-Befehlen einzurichten (keine Java- oder Python-Codierung).
Datenfilterung, Transformationen, Aggregationen, Joins, Windowing und Sessionization vollständig in SQL durchzuführen.
Interaktive, kontinuierliche Abfragen für Streaming ETL und Echtzeit-Analysen entwerfen und einsetzen.
In dieser von einem Ausbilder geleiteten Live-Schulung in Innsbruck (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie sie Apache NiFi in einer Live-Laborumgebung einsetzen und verwalten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
Apachi NiFi zu installieren und zu konfigurieren.
Daten aus unterschiedlichen, verteilten Datenquellen, einschließlich Datenbanken und Big Data Lakes, zu beschaffen, umzuwandeln und zu verwalten.
Datenflüsse zu automatisieren.
Streaming-Analysen zu ermöglichen.
Wenden Sie verschiedene Ansätze für die Datenerfassung an.
Transformieren Sie Big Data und in Geschäftseinblicke.
In dieser Live-Schulung unter Anleitung in Innsbruck lernen die Teilnehmer die Grundlagen der ablaufbasierten Programmierung, während sie eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren mit Apache NiFi entwickeln.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein:
Die Architektur von NiFi und Datenflusskonzepte zu verstehen.
Erweiterungen mit NiFi und APIs von Drittanbietern zu entwickeln.
Ihren eigenen Apache-NiFi-Prozessor zu entwickeln.
Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen einlesen und verarbeiten.
Diese von einem Kursleiter geleitete Live-Schulung in Innsbruck (online oder vor Ort) richtet sich an Dateningenieure, Datenwissenschaftler und Programmierer, die die Funktionen von Spark Streaming zur Verarbeitung und Analyse von Echtzeitdaten nutzen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein, mit Spark Streaming Live-Datenströme zur Verwendung in Datenbanken, Dateisystemen und Live-Dashboards zu verarbeiten.
Read more...
Last Updated:
Erfahrungsberichte (4)
Genügend praktische Umsetzung, der Trainer ist kompetent
Chris Tan
Kurs - A Practical Introduction to Stream Processing
Maschinelle Übersetzung
Während der Übungen erklärte James mir jeden Schritt detaillierter, wo immer ich festsaß. Ich war komplett neu in NIFI. Er erläuterte den tatsächlichen Zweck von NIFI, sogar die Grundlagen wie Open Source. Er ging alle Konzepte von NIFI von Anfänger- bis Entwickler-Level durch.
Firdous Hashim Ali - MOD A BLOCK
Kurs - Apache NiFi for Administrators
Maschinelle Übersetzung
Dass ich es überhaupt hatte.
Peter Scales - CACI Ltd
Kurs - Apache NiFi for Developers
Maschinelle Übersetzung
Wiederholung/Betrachtung der wesentlichen Punkte der besprochenen Themen.
Paolo Angelo Gaton - SMS Global Technologies Inc.
Kurs - Building Stream Processing Applications with Kafka Streams