Big Data Schulungen

Big Data Schulungen

Lokale, von Ausbildern geführte Live-Big-Data-Schulungen beginnen mit einer Einführung in elementare Konzepte von Big Data und führen dann zu den Programmiersprachen und Methoden, die zur Durchführung der Datenanalyse verwendet werden. Tools und Infrastruktur zur Aktivierung von Big Data Storage, Distributed Processing und Skalierbarkeit werden in Demo-Übungssessions diskutiert, verglichen und implementiert. Big Data Training ist als "Live-Training vor Ort" oder "Fern-Live-Training" verfügbar. Onsite Live Training kann vor Ort bei Kunden durchgeführt werden Österreich oder in NobleProg Corporate Trainingszentren in Österreich . Remote-Live-Training wird über einen interaktiven Remote-Desktop durchgeführt. NobleProg - Ihr lokaler Trainingsanbieter

Machine Translated

Erfahrungsberichte

★★★★★
★★★★★

Big Data Kurspläne

Name des Kurses
Dauer
Überblick
Name des Kurses
Dauer
Überblick
14 Stunden
Überblick
Go al:

Lernen, auf der Ebene der Unabhängigkeit mit SPSS zu arbeiten

Die Adressaten:

Analysten, Forscher, Wissenschaftler, Studenten und alle, die die Fähigkeit erwerben möchten, das SPSS-Paket zu verwenden und gängige Data-Mining-Techniken zu erlernen.
28 Stunden
Überblick
MonetDB ist eine Open-Source-Datenbank, die Pionierarbeit bei der Säulenspeichertechnologie geleistet hat.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie man MonetDB einsetzt und wie man den größten Nutzen daraus zieht.

Am Ende dieser Schulung können die Teilnehmer:

- Verstehen Sie MonetDB und seine Funktionen
- Installieren und loslegen mit MonetDB
- Lernen Sie verschiedene Funktionen und Aufgaben in MonetDB kennen und führen Sie sie aus
- Beschleunigen Sie die Projektabwicklung, indem Sie die MonetDB-Funktionen maximieren

Publikum

- Entwickler
- Technische Experten

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
7 Stunden
Überblick
Spark SQL ist das Modul von Apache Spark zum Arbeiten mit strukturierten und unstrukturierten Daten. Spark SQL bietet Informationen zur Struktur der Daten sowie zur ausgeführten Berechnung. Mit diesen Informationen können Optimierungen durchgeführt werden. Zwei häufige Verwendungen von Spark SQL sind:
- um SQL Abfragen auszuführen.
- um Daten aus einer vorhandenen Hive Installation zu lesen.

In diesem vom Kursleiter durchgeführten Live-Training (vor Ort oder remote) lernen die Teilnehmer, wie verschiedene Arten von Datensätzen mit Spark SQL analysiert werden.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Spark SQL .
- Führen Sie eine Datenanalyse mit Spark SQL .
- Abfragen von Datensätzen in verschiedenen Formaten.
- Daten visualisieren und Ergebnisse abfragen.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
7 Stunden
Überblick
Ziel des Kurses ist es, den Teilnehmern eine Beherrschung der Grundlagen von R und des Umgangs mit Daten zu ermöglichen.
14 Stunden
Überblick
Ziel : Diese Schulung soll den Teilnehmern helfen, zu verstehen, warum Big Data unser Leben verändert und wie es die Art und Weise verändert, wie Unternehmen uns als Verbraucher sehen. In der Tat stellen Benutzer von Big Data in Unternehmen fest, dass Big Data eine Fülle von Informationen und Erkenntnissen freisetzt, die sich in höheren Gewinnen, geringeren Kosten und geringerem Risiko niederschlagen. Der Nachteil war jedoch manchmal die Enttäuschung, wenn zu viel Wert auf einzelne Technologien gelegt und zu wenig auf die Säulen des Big-Data-Managements gelegt wurde.

Die Teilnehmer lernen in diesem Kurs, wie sie Big Data mithilfe der drei Säulen Datenintegration, Data Governance und Datensicherheit verwalten können, um Big Data in echten Geschäftswert umzuwandeln. Verschiedene Übungen, die an einer Fallstudie zum Kundenmanagement durchgeführt werden, helfen den Teilnehmern, die zugrunde liegenden Prozesse besser zu verstehen.
14 Stunden
Überblick
Apache Hama ist ein Framework, das auf dem BSP-Modell (Bulk Synchronous Parallel) basiert und hauptsächlich für Big Data Analysen verwendet wird.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Grundlagen von Apache Hama während sie die Erstellung einer BSP-basierten Anwendung und eines vertexzentrierten Programms unter Verwendung der Apache Hama Frameworks durchlaufen.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Apache Hama
- Verstehen der Grundlagen von Apache Hama und des BSP-Programmiermodells (Bulk Synchronous Parallel)
- Erstellen Sie ein BSP-basiertes Programm mit dem Apache Hama BSP-Framework
- Erstellen Sie mit Apache Hama Graph Framework ein vertexzentriertes Programm
- Erstellen, testen und debuggen Sie Ihre eigenen Apache Hama Anwendungen

Publikum

- Entwickler

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben

Hinweis

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 Stunden
Überblick
In dieser auf Klassenräumen basierenden Schulungssitzung wird Big Data . Die Teilnehmer erhalten computerbasierte Beispiele und Fallstudien, die sie mit relevanten Big-Data-Tools durchführen können
7 Stunden
Überblick
Kafka Streams ist eine clientseitige Bibliothek zum Erstellen von Anwendungen und Mikrodiensten, deren Daten an ein und von einem Kafka-Messagingsystem übertragen werden. Traditionell hat sich Apache Kafka auf Apache Spark oder Apache Storm , um Daten zwischen Nachrichtenproduzenten und -konsumenten zu verarbeiten. Durch Aufrufen der Kafka Streams-API aus einer Anwendung heraus können Daten direkt in Kafka verarbeitet werden, ohne dass die Daten zur Verarbeitung an einen separaten Cluster gesendet werden müssen.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie Kafka-Streams in eine Reihe von Java Beispielanwendungen integrieren, die Daten zur Stream-Verarbeitung an Apache Kafka und von diesem weitergeben.

Am Ende dieser Schulung können die Teilnehmer:

- Verstehen der Funktionen und Vorteile von Kafka Streams gegenüber anderen Frameworks für die Stream-Verarbeitung
- Verarbeiten Sie Stream-Daten direkt in einem Kafka-Cluster
- Schreiben Sie eine Java oder Scala Anwendung oder einen Microservice, der sich in Kafka und Kafka Streams integrieren lässt
- Schreiben Sie prägnanten Code, der Eingabe-Kafka-Themen in Ausgabe-Kafka-Themen umwandelt
- Erstellen, packen und implementieren Sie die Anwendung

Publikum

- Entwickler

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben

Anmerkungen

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren
21 Stunden
Überblick
Dremio ist eine Open-Source-Selfservice-Datenplattform, die die Abfrage verschiedener Arten von Datenquellen beschleunigt Dremio lässt sich in relationale Datenbanken, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch und andere Datenquellen integrieren Es unterstützt SQL und bietet eine Web-Benutzeroberfläche zum Erstellen von Abfragen In diesem instruierten Live-Training erfahren die Teilnehmer, wie Dremio als vereinheitlichende Schicht für Datenanalyse-Tools und die zugrunde liegenden Datenrepositorys installiert, konfiguriert und verwendet wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Dremio Führen Sie Abfragen für mehrere Datenquellen unabhängig von Standort, Größe oder Struktur aus Integrieren Sie Dremio mit BI und Datenquellen wie Tableau und Elasticsearch Publikum Datenwissenschaftler Business-Analysten Dateningenieure Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Anmerkungen Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
7 Stunden
Überblick
Apache Drill ist eine schemafreie, verteilte, in Speicher geschriebene SQL-Abfrage-Engine für Hadoop, NoSQL und andere Cloud- und Dateispeichersysteme Die Stärke von Apache Drill liegt in der Fähigkeit, Daten aus mehreren Datenspeichern mit einer einzigen Abfrage zu verknüpfen Apache Drill unterstützt zahlreiche NoSQL-Datenbanken und Dateisysteme, darunter HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Azure Blobspeicher, Google Cloud Storage, Swift, NAS und lokale Dateien Apache Drill ist die Open-Source-Version des Google-Dremel-Systems, die als Infrastrukturdienst namens Google BigQuery verfügbar ist In diesem instruierten Live-Training lernen die Teilnehmer, Apache Drill zu optimieren und zu debuggen, um die Leistung von Abfragen bei sehr großen Datensätzen zu verbessern Der Kurs beginnt mit einem Überblick über die Architektur und bietet einen Vergleich zwischen Apache Drill und anderen interaktiven Datenanalyse-Tools Die Teilnehmer durchlaufen dann eine Reihe von interaktiven praktischen Übungen, die Installation, Konfiguration, Leistungsbewertung, Abfrageoptimierung, Datenpartitionierung und Debugging einer Apache Drill-Instanz in einer Live-Laborumgebung umfassen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Apache Drill Verstehen Sie die Architektur und die Funktionen von Apache Drill Verstehen Sie, wie Apache Drills Abfragen empfängt und ausführt Optimieren Sie Drill-Abfragen für die verteilte SQL-Ausführung Debug Apache Drill Publikum Entwickler Systemadministratoren Datenanalytiker Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Anmerkungen Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
7 Stunden
Überblick
In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Kernkonzepte von MapR Stream Architecture kennen, während sie eine Echtzeit-Streaming-Anwendung entwickeln.

Am Ende dieser Schulung werden die Teilnehmer in der Lage sein, Produzenten- und Konsumentenanwendungen für die Datenverarbeitung in Echtzeit zu erstellen.

Publikum

- Entwickler
- Administratoren

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben

Hinweis

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
21 Stunden
Überblick
Apache Drill ist eine schemafreie, verteilte, in Speicher geschriebene SQL-Abfrage-Engine für Hadoop, NoSQL und andere Cloud- und Dateispeichersysteme Die Stärke von Apache Drill liegt in der Fähigkeit, Daten aus mehreren Datenspeichern mit einer einzigen Abfrage zu verknüpfen Apache Drill unterstützt zahlreiche NoSQL-Datenbanken und Dateisysteme, darunter HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Azure Blobspeicher, Google Cloud Storage, Swift, NAS und lokale Dateien Apache Drill ist die Open-Source-Version des Google-Dremel-Systems, die als Infrastrukturdienst namens Google BigQuery verfügbar ist In diesem instruierten Live-Training lernen die Teilnehmer die Grundlagen von Apache Drill kennen und nutzen dann die Leistung und den Komfort von SQL, um interaktiv Big Data über mehrere Datenquellen abzufragen, ohne Code zu schreiben Die Teilnehmer lernen außerdem, wie sie ihre Drill-Abfragen für die verteilte SQL-Ausführung optimieren können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Führen Sie Self-Service-Exploration mit strukturierten und semistrukturierten Daten auf Hadoop durch Abfrage bekannter sowie unbekannter Daten mit SQL-Abfragen Verstehen Sie, wie Apache Drills Abfragen empfängt und ausführt Schreiben Sie SQL-Abfragen, um verschiedene Datentypen zu analysieren, einschließlich strukturierter Daten in Hive, semistrukturierter Daten in HBase- oder MapRDB-Tabellen und Daten, die in Dateien wie Parquet und JSON gespeichert werden Verwenden Sie Apache Drill, um die Schemaermittlung durchzuführen, ohne dass komplexe ETL- und Schemaoperationen erforderlich sind Integrieren Sie Apache Drill mit BI-Tools (Business Intelligence) wie Tableau, Qlikview, MicroStrategy und Excel Publikum Datenanalytiker Datenwissenschaftler SQL-Programmierer Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
28 Stunden
Überblick
Mem SQL ist ein speicherinternes, verteiltes SQL Datenbankverwaltungssystem für Clouds und lokale Anwendungen. Es handelt sich um ein Echtzeit-Data-Warehouse, das sofort Einblicke in Live- und Verlaufsdaten bietet.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Grundlagen von Mem SQL für die Entwicklung und Verwaltung.

Am Ende dieser Schulung können die Teilnehmer:

- Verstehen Sie die wichtigsten Konzepte und Eigenschaften von Mem SQL
- Installieren, entwerfen, warten und betreiben Sie Mem SQL
- Optimieren Sie Schemata in Mem SQL
- Verbessern Sie Abfragen in Mem SQL
- Benchmark-Leistung in Mem SQL
- Erstellen Sie Echtzeit-Datenanwendungen mit Mem SQL

Publikum

- Entwickler
- Administratoren
- Betriebsingenieure

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
21 Stunden
Überblick
Amazon Redshift ist ein Cloud-basierter Data Warehouse-Service für Petabytescale in AWS In diesem instruierten Live-Training lernen die Teilnehmer die Grundlagen von Amazon Redshift kennen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Amazon Redshift Laden, Konfigurieren, Bereitstellen, Abfragen und Visualisieren von Daten mit Amazon Redshift Publikum Entwickler IT-Fachleute Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um zu vereinbaren .
28 Stunden
Überblick
Hadoop ist ein beliebtes Big Data-Verarbeitungsframework Python ist eine Highlevel-Programmiersprache, die für ihre klare Syntax und Code-Lesbarkeit bekannt ist In diesem instruierten Live-Training lernen die Teilnehmer mithilfe von Python, wie sie mit Hadoop, MapReduce, Pig und Spark arbeiten, indem sie mehrere Beispiele und Anwendungsfälle durchgehen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die grundlegenden Konzepte von Hadoop, MapReduce, Pig und Spark Verwenden Sie Python mit Hadoop Distributed File System (HDFS), MapReduce, Pig und Spark Verwenden Sie Snakebite, um programmgesteuert auf HDFS in Python zuzugreifen Verwenden Sie mrjob, um MapReduce-Jobs in Python zu schreiben Schreibe Spark-Programme mit Python Erweitern Sie die Funktionalität von Pig mithilfe von Python-UDFs Verwalten Sie MapReduce-Jobs und Pig-Skripte mit Luigi Publikum Entwickler IT-Fachleute Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 Stunden
Überblick
Python ist eine High-Level-Programmiersprache, die für ihre klare Syntax und Codelesbarkeit bekannt ist. Spark ist eine Datenverarbeitungs-Engine, die zum Abfragen, Analysieren und Transformieren von Big Data verwendet wird. PySpark können Benutzer Spark mit Python .

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie Python und Spark zusammen verwenden, um Big Data zu analysieren, während sie an praktischen Übungen arbeiten.

Am Ende dieser Schulung können die Teilnehmer:

- Erfahren Sie, wie Sie Spark mit Python zum Analysieren von Big Data .
- Arbeiten Sie an Übungen, die die realen Umstände nachahmen.
- Verwenden Sie verschiedene Tools und Techniken für die Big-Data-Analyse mit PySpark .

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
35 Stunden
Überblick
Der technologische Fortschritt und die zunehmende Menge an Informationen verändern die Art und Weise, wie Strafverfolgungsmaßnahmen durchgeführt werden. Die Herausforderungen, die Big Data bringt, sind fast so gewaltig wie das Versprechen von Big Data . Effizientes Speichern von Daten ist eine dieser Herausforderungen. Effektiv zu analysieren ist eine andere.

In diesem von Lehrern geleiteten Live-Training lernen die Teilnehmer, wie sie mit Big Data Technologien umgehen, ihre Auswirkungen auf vorhandene Prozesse und Richtlinien bewerten und diese Technologien implementieren können, um kriminelle Aktivitäten zu identifizieren und Kriminalität zu verhindern. Fallstudien von Strafverfolgungsbehörden auf der ganzen Welt werden untersucht, um Einblicke in ihre Ansätze, Herausforderungen und Ergebnisse bei der Adoption zu erhalten.

Am Ende dieser Schulung können die Teilnehmer:

- Kombinieren Sie die Big Data Technologie mit herkömmlichen Datenerfassungsprozessen, um eine Story während einer Untersuchung zusammenzustellen
- Implementieren Sie industrielle Big Data Storage- und Verarbeitungslösungen für die Datenanalyse
- Erarbeitung eines Vorschlags für die Annahme der am besten geeigneten Instrumente und Verfahren zur Ermöglichung eines datengestützten Ansatzes für strafrechtliche Ermittlungen

Publikum

- Strafverfolgungsspezialisten mit technischem Hintergrund

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
14 Stunden
Überblick
Um die Compliance der Regulierungsbehörden zu erfüllen, können CSPs ( Communication Service Provider) auf Big Data Analytics zurückgreifen, die ihnen nicht nur dabei helfen, die Compliance zu erfüllen, sondern im Rahmen desselben Projekts die Kundenzufriedenheit steigern und damit die Abwanderung verringern. Da Compliance mit der Qualität der vertraglich gebundenen Dienstleistungen zusammenhängt, wird jede Initiative zur Einhaltung der Compliance den „Wettbewerbsvorteil“ der CSP verbessern. Daher ist es wichtig, dass die Aufsichtsbehörden in der Lage sind, eine Reihe von Big Data Analyseverfahren für CSPs zu beraten / zu leiten, die für die Aufsichtsbehörden und CSPs von beiderseitigem Nutzen sind.

Der Kurs besteht aus 8 Modulen (4 am 1. Tag und 4 am 2. Tag)
28 Stunden
Überblick
Viele Probleme der realen Welt können in Form von Diagrammen beschrieben werden. Zum Beispiel das Webdiagramm, das soziale Netzwerkdiagramm, das Zugnetzwerkdiagramm und das Sprachdiagramm. Diese Diagramme sind in der Regel sehr groß. Ihre Verarbeitung erfordert eine spezielle Reihe von Tools und Prozessen. Diese Tools und Prozesse können als Graph Computing (auch als Graph Analytics bezeichnet) bezeichnet werden.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Technologieangebote und Implementierungsansätze für die Verarbeitung von Graphendaten kennen. Ziel ist es, reale Objekte, ihre Merkmale und Beziehungen zu identifizieren, diese Beziehungen dann zu modellieren und sie unter Verwendung eines Graph Computing Ansatzes (auch als Graph Analytics bezeichnet) als Daten zu verarbeiten. Wir beginnen mit einem umfassenden Überblick und beschränken uns auf bestimmte Tools, während wir eine Reihe von Fallstudien, praktischen Übungen und Live-Bereitstellungen durchgehen.

Am Ende dieser Schulung können die Teilnehmer:

- Verstehen Sie, wie Diagrammdaten beibehalten und durchlaufen werden.
- Wählen Sie das beste Framework für eine bestimmte Aufgabe aus (von Diagrammdatenbanken bis zu Stapelverarbeitungs-Frameworks).
- Implementieren Sie Hadoop , Spark, GraphX und Pregel, um das Graph-Computing auf vielen Maschinen parallel auszuführen.
- Zeigen Sie reale Big-Data-Probleme in Form von Diagrammen, Prozessen und Durchläufen an.

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
7 Stunden
Überblick
Apache NiFi (Hortonworks DataFlow) ist eine integrierte Datenlogistik- und einfache Ereignisverarbeitungsplattform in Echtzeit, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht. Es wurde unter Verwendung von Flow-basierter Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche zum Verwalten von Datenflüssen in Echtzeit.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Grundlagen der Flow-basierten Programmierung kennen, während sie mit Apache NiFi eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren Apache NiFi .

Am Ende dieser Schulung können die Teilnehmer:

- Verstehen Sie die Architektur und die Datenflusskonzepte von NiFi.
- Entwickeln Sie Erweiterungen mit NiFi und APIs von Drittanbietern.
- Entwickeln Sie Ihren eigenen Apache Nifi Prozessor.
- Erfassen und verarbeiten Sie Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
21 Stunden
Überblick
Apache NiFi (Hortonworks DataFlow) ist eine integrierte Datenlogistik- und einfache Ereignisverarbeitungsplattform in Echtzeit, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht. Es wurde unter Verwendung von Flow-basierter Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche zum Verwalten von Datenflüssen in Echtzeit.

In diesem von einem Kursleiter geleiteten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie Apache NiFi in einer Live-Laborumgebung Apache NiFi und verwaltet wird.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Apachi NiFi.
- Beschaffen, transformieren und verwalten Sie Daten aus unterschiedlichen, verteilten Datenquellen, einschließlich Datenbanken und Big Data Lakes.
- Datenflüsse automatisieren.
- Aktivieren Sie die Streaming-Analyse.
- Wenden Sie verschiedene Ansätze für die Datenaufnahme an.
- Verwandeln Sie Big Data in Business Insights.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 Stunden
Überblick
Apache SolrCloud ist eine verteilte Datenverarbeitungs-Engine, die die Suche und Indizierung von Dateien in einem verteilten Netzwerk erleichtert In diesem instruierten Live-Training lernen die Teilnehmer, wie eine SolrCloud-Instanz auf Amazon AWS eingerichtet wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Funktionen von SolCloud und wie diese mit denen herkömmlicher Master Slaves verglichen werden Konfigurieren Sie einen zentralisierten SolCloud-Cluster Automatisiere Prozesse wie die Kommunikation mit Shards, das Hinzufügen von Dokumenten zu den Shards usw Verwenden Sie Zookeeper in Verbindung mit SolrCloud, um Prozesse weiter zu automatisieren Verwenden Sie die Schnittstelle, um Fehlerberichte zu verwalten Lastenausgleich einer SolrCloud-Installation Konfigurieren Sie SolrCloud für kontinuierliche Verarbeitung und Failover Publikum Solr Entwickler Projektmanager Systemadministratoren Suche nach Analysten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
28 Stunden
Überblick
Die Datentresormodellierung ist eine Datenbankmodellierungstechnik, die eine langfristige historische Speicherung von Daten aus mehreren Quellen ermöglicht Ein Datentresor speichert eine einzelne Version der Fakten oder "alle Daten die ganze Zeit" Sein flexibles, skalierbares, konsistentes und anpassungsfähiges Design umfasst die besten Aspekte der 3 Normalform (3NF) und des Sternschemas In diesem instruierten Live-Training lernen die Teilnehmer, wie ein Data Vault erstellt wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Architektur- und Designkonzepte von Data Vault 20 und die Interaktion mit Big Data, NoSQL und AI Verwenden Sie Data-Vaulting-Techniken, um die Überwachung, Verfolgung und Inspektion historischer Daten in einem Data Warehouse zu ermöglichen Entwickeln Sie einen konsistenten und wiederholbaren ETL-Prozess (Extract, Transform, Load) Erstellen und implementieren Sie hoch skalierbare und wiederholbare Warehouses Publikum Datenmodellierer Spezialist für Data Warehousing Business Intelligence-Spezialisten Dateningenieure Datenbankadministratoren Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 Stunden
Überblick
Datameer ist eine Business Intelligence- und Analyseplattform, die auf Hadoop basiert Enduser können große, strukturierte, semistrukturierte und unstrukturierte Daten auf einfache Weise abrufen, untersuchen und korrelieren In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Datameer die steile Lernkurve von Hadoop überwinden können, während sie die Einrichtung und Analyse einer Reihe großer Datenquellen durchlaufen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen, kuratieren und interaktiv einen Unternehmensdatensee erkunden Greifen Sie auf Business-Intelligence-Data-Warehouses, Transaktionsdatenbanken und andere Analyseläden zu Verwenden Sie eine Tabellenbenutzeroberfläche, um End-to-End-Datenverarbeitungspipelines zu entwerfen Greifen Sie auf vorgefertigte Funktionen zu, um komplexe Datenbeziehungen zu untersuchen Verwenden Sie DragandDrop-Assistenten, um Daten zu visualisieren und Dashboards zu erstellen Verwenden Sie Tabellen, Diagramme, Grafiken und Karten, um Abfrageergebnisse zu analysieren Publikum Datenanalytiker Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 Stunden
Überblick
Stream Processing bezieht sich auf die Echtzeitverarbeitung von "Daten in Bewegung", dh das Ausführen von Berechnungen für Daten, während diese empfangen werden. Solche Daten werden als fortlaufende Datenströme aus Datenquellen wie Sensorereignissen, Website-Benutzeraktivitäten, Finanzgeschäften, Kreditkartenüberprüfungen, Klickströmen usw. gelesen. Stream Processing Frameworks können große Datenmengen lesen und wertvolle Erkenntnisse fast augenblicklich liefern.

In diesem von Lehrern geführten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie verschiedene Stream Processing Frameworks mit vorhandenen Big Data-Speichersystemen und zugehörigen Softwareanwendungen und Mikrodiensten eingerichtet und integriert werden.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie verschiedene Stream Processing Frameworks, z. B. Spark Streaming und Kafka Streaming.
- Verstehen und wählen Sie den am besten geeigneten Rahmen für den Job.
- Kontinuierliche, zeitgleiche und aufzeichnungsweise Datenverarbeitung.
- Integrieren Sie Stream Processing Lösungen in vorhandene Datenbanken, Data Warehouses, Data Lakes usw.
- Integrieren Sie die am besten geeignete Stream-Processing-Bibliothek in Unternehmensanwendungen und Microservices.

Publikum

- Entwickler
- Software-Architekten

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben

Anmerkungen

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
28 Stunden
Überblick
Pentaho Open Source BI Suite Community Edition (CE) von Pentaho ist ein Business Intelligence-Paket, das Datenintegration, Berichterstellung, Dashboards und Ladefunktionen bietet.

In diesem von Kursleitern durchgeführten Live-Training lernen die Teilnehmer, wie sie die Funktionen der Pentaho Open Source BI Suite Community Edition (CE) maximieren können.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und Konfigurieren der Pentaho Open Source BI Suite Community Edition (CE)
- Grundlegendes zu Pentaho CE-Tools und deren Funktionen
- Erstellen Sie Berichte mit Pentaho CE
- Integrieren Sie Daten von Drittanbietern in Pentaho CE
- Arbeiten Sie mit Big Data und Analytics in Pentaho CE

Publikum

- Programmierer
- BI-Entwickler

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben

Hinweis

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 Stunden
Überblick
Apache Ignite is an in-memory computing platform that sits between the application and data layer to improve speed, scale, and availability.

In this instructor-led, live training, participants will learn the principles behind persistent and pure in-memory storage as they step through the creation of a sample in-memory computing project.

By the end of this training, participants will be able to:

- Use Ignite for in-memory, on-disk persistence as well as a purely distributed in-memory database.
- Achieve persistence without syncing data back to a relational database.
- Use Ignite to carry out SQL and distributed joins.
- Improve performance by moving data closer to the CPU, using RAM as a storage.
- Spread data sets across a cluster to achieve horizontal scalability.
- Integrate Ignite with RDBMS, NoSQL, Hadoop and machine learning processors.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
21 Stunden
Überblick
Scala ist eine komprimierte Version von Java für die groß angelegte funktionale und objektorientierte Programmierung. Apache Spark Streaming ist eine erweiterte Komponente der Spark-API zur Verarbeitung großer Datenmengen als Echtzeit-Streams. Zusammen ermöglichen Spark Streaming und Scala das Streaming von Big Data.

Dieses Live-Training (vor Ort oder per Fernzugriff) richtet sich an Softwareentwickler, die Big Data mit Spark Streaming und Scala streamen möchten.

Am Ende dieser Schulung können die Teilnehmer:

- Erstellen Sie Spark-Anwendungen mit der Programmiersprache Scala .
- Verwenden Sie Spark Streaming, um kontinuierliche Datenströme zu verarbeiten.
- Verarbeiten Sie Datenströme in Echtzeit mit Spark Streaming.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
7 Stunden
Überblick
This instructor-led, live training in Österreich (online or onsite) is aimed at data engineers, data scientists, and programmers who wish to use Apache Kafka features in data streaming with Python.

By the end of this training, participants will be able to use Apache Kafka to monitor and manage conditions in continuous data streams using Python programming.
28 Stunden
Überblick
This instructor-led, live training in Österreich (online or onsite) is aimed at technical persons who wish to deploy Talend Open Studio for Big Data to simplifying the process of reading and crunching through Big Data.

By the end of this training, participants will be able to:

- Install and configure Talend Open Studio for Big Data.
- Connect with Big Data systems such as Cloudera, HortonWorks, MapR, Amazon EMR and Apache.
- Understand and set up Open Studio's big data components and connectors.
- Configure parameters to automatically generate MapReduce code.
- Use Open Studio's drag-and-drop interface to run Hadoop jobs.
- Prototype big data pipelines.
- Automate big data integration projects.
Big Data Schulung, Big Data boot camp, Big Data Abendkurse, Big Data Wochenendkurse, Big Data Kurs, Big Data Training, Big Data Seminar, Big Data Seminare, Big Data Privatkurs, Big Data Coaching, Big Data Lehrer

Sonderangebote

Sonderangebote Newsletter

Wir behandeln Ihre Daten vertraulich und werden sie nicht an Dritte weitergeben.
Sie können Ihre Einstellungen jederzeit ändern oder sich ganz abmelden.

EINIGE UNSERER KUNDEN

is growing fast!

We are looking for a good mixture of IT and soft skills in Austria!

As a NobleProg Trainer you will be responsible for:

  • delivering training and consultancy Worldwide
  • preparing training materials
  • creating new courses outlines
  • delivering consultancy
  • quality management

At the moment we are focusing on the following areas:

  • Statistic, Forecasting, Big Data Analysis, Data Mining, Evolution Alogrithm, Natural Language Processing, Machine Learning (recommender system, neural networks .etc...)
  • SOA, BPM, BPMN
  • Hibernate/Spring, Scala, Spark, jBPM, Drools
  • R, Python
  • Mobile Development (iOS, Android)
  • LAMP, Drupal, Mediawiki, Symfony, MEAN, jQuery
  • You need to have patience and ability to explain to non-technical people

To apply, please create your trainer-profile by going to the link below:

Apply now!

This site in other countries/regions