Big Data Schulungen

Big Data Schulungen

Local, instructor-led live Big Data training courses start with an introduction to elemental concepts of Big Data, then progress into the programming languages and methodologies used to perform Data Analysis. Tools and infrastructure for enabling Big Data storage, Distributed Processing, and Scalability are discussed, compared and implemented in demo practice sessions.

Big Data training is available as "onsite live training" or "remote live training". Onsite live Big Data trainings in Österreich can be carried out locally on customer premises or in NobleProg corporate training centers. Remote live training is carried out by way of an interactive, remote desktop.

NobleProg -- Your Local Training Provider

Erfahrungsberichte

★★★★★
★★★★★

Big Data Kurspläne

Title
Duration
Overview
Title
Duration
Overview
14 hours
Overview
Tor:

Lernen, mit SPSS auf der Ebene der Unabhängigkeit zu arbeiten

Die Adressaten:

Analysten, Forscher, Wissenschaftler, Studenten und alle, die SPSS-Pakete nutzen und beliebte Data-Mining-Techniken erlernen möchten.
14 hours
Overview
Apache SolrCloud ist eine verteilte Datenverarbeitungs-Engine, die die Suche und Indizierung von Dateien in einem verteilten Netzwerk erleichtert In diesem instruierten Live-Training lernen die Teilnehmer, wie eine SolrCloud-Instanz auf Amazon AWS eingerichtet wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Funktionen von SolCloud und wie diese mit denen herkömmlicher Master Slaves verglichen werden Konfigurieren Sie einen zentralisierten SolCloud-Cluster Automatisiere Prozesse wie die Kommunikation mit Shards, das Hinzufügen von Dokumenten zu den Shards usw Verwenden Sie Zookeeper in Verbindung mit SolrCloud, um Prozesse weiter zu automatisieren Verwenden Sie die Schnittstelle, um Fehlerberichte zu verwalten Lastenausgleich einer SolrCloud-Installation Konfigurieren Sie SolrCloud für kontinuierliche Verarbeitung und Failover Publikum Solr Entwickler Projektmanager Systemadministratoren Suche nach Analysten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
28 hours
Overview
MemSQL ist ein verteiltes SQL-Datenbankmanagementsystem für Cloud und On-Premises Es ist ein Echtzeit-Data-Warehouse, das sofort Erkenntnisse aus Live- und historischen Daten liefert In diesem instruierten Live-Training lernen die Teilnehmer das Wesentliche von MemSQL für Entwicklung und Administration kennen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Schlüsselkonzepte und Eigenschaften von MemSQL Installation, Design, Wartung und Betrieb von MemSQL Optimiere Schemas in MemSQL Verbessere Abfragen in MemSQL Benchmark-Leistung in MemSQL Erstellen Sie Echtzeit-Datenanwendungen mit MemSQL Publikum Entwickler Administratoren Betriebsingenieure Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
28 hours
Overview
Hadoop ist ein beliebtes Big Data-Verarbeitungsframework Python ist eine Highlevel-Programmiersprache, die für ihre klare Syntax und Code-Lesbarkeit bekannt ist In diesem instruierten Live-Training lernen die Teilnehmer mithilfe von Python, wie sie mit Hadoop, MapReduce, Pig und Spark arbeiten, indem sie mehrere Beispiele und Anwendungsfälle durchgehen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die grundlegenden Konzepte von Hadoop, MapReduce, Pig und Spark Verwenden Sie Python mit Hadoop Distributed File System (HDFS), MapReduce, Pig und Spark Verwenden Sie Snakebite, um programmgesteuert auf HDFS in Python zuzugreifen Verwenden Sie mrjob, um MapReduce-Jobs in Python zu schreiben Schreibe Spark-Programme mit Python Erweitern Sie die Funktionalität von Pig mithilfe von Python-UDFs Verwalten Sie MapReduce-Jobs und Pig-Skripte mit Luigi Publikum Entwickler IT-Fachleute Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Python ist eine Highlevel-Programmiersprache, die für ihre klare Syntax und Code-Lesbarkeit bekannt ist Spark ist eine Datenverarbeitungsmaschine, die große Daten abfragt, analysiert und transformiert PySpark ermöglicht Benutzern, Spark mit Python zu verbinden In diesem instruierten Live-Training lernen die Teilnehmer, wie sie Python und Spark zusammen verwenden, um Big Data zu analysieren, während sie an Hands-on-Übungen arbeiten Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erfahren Sie, wie Sie Spark mit Python verwenden, um Big Data zu analysieren Arbeite an Übungen, die reale Lebensumstände nachahmen Verwenden Sie verschiedene Tools und Techniken für die Analyse großer Datenmengen mit PySpark Publikum Entwickler IT-Fachleute Datenwissenschaftler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
35 hours
Overview
Fortschritte bei den Technologien und die zunehmende Menge an Informationen verändern die Art und Weise, in der die Strafverfolgung durchgeführt wird Die Herausforderungen, die Big Data mit sich bringt, sind fast so gewaltig wie die Versprechen von Big Data Die effiziente Speicherung von Daten ist eine dieser Herausforderungen es effektiv zu analysieren ist ein anderes In diesem instruierten Live-Training lernen die Teilnehmer die Denkweise kennen, mit der sie Big Data-Technologien angehen, ihre Auswirkungen auf bestehende Prozesse und Richtlinien bewerten und diese Technologien zum Zweck der Identifizierung krimineller Aktivitäten und zur Verhinderung von Kriminalität einsetzen können Fallstudien von Strafverfolgungsbehörden auf der ganzen Welt werden untersucht, um Einblicke in ihre Adoptionsansätze, Herausforderungen und Ergebnisse zu erhalten Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Kombinieren Sie Big-Data-Technologie mit traditionellen Datenerfassungs-Prozessen, um während einer Untersuchung eine Geschichte zusammenzustellen Implementieren Sie industrielle Big-Data-Speicher- und Verarbeitungslösungen für die Datenanalyse Vorbereitung eines Vorschlags für die Einführung der am besten geeigneten Instrumente und Verfahren zur Ermöglichung eines datengestützten Ansatzes bei strafrechtlichen Ermittlungen Publikum Strafverfolgungsspezialisten mit technischem Hintergrund Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Um die Compliance der Regulierungsbehörden zu erfüllen, können CSPs (Communication Service Provider) auf Big zugreifen Data Analytics, die ihnen nicht nur dabei helfen, Compliance zu erfüllen, sondern auch im Rahmen derselben Projekt können sie die Kundenzufriedenheit erhöhen und somit die Abwanderung reduzieren In der Tat seit Compliance bezieht sich auf Servicequalität, die an einen Vertrag geknüpft ist, jegliche Initiative zur Erfüllung des Vertrags Compliance, wird den "Wettbewerbsvorteil" der CSPs verbessern Daher ist es wichtig, dass Die Aufsichtsbehörden sollten in der Lage sein, eine Reihe von Big-Data-Analysepraktiken für CSPs zu beraten / zu leiten von gegenseitigem Nutzen zwischen den Regulierungsbehörden und CSPs sein 2 Tage natürlich: 8 Module, jeweils 2 Stunden = 16 Stunden .
28 hours
Overview
Eine große Anzahl von realen Problemen kann anhand von Graphen beschrieben werden Zum Beispiel das Web-Diagramm, das Diagramm des sozialen Netzwerks, das Diagramm des Zugnetzwerks und das Sprachen-Diagramm Diese Graphen neigen dazu, extrem groß zu sein; ihre Verarbeitung erfordert einen speziellen Satz von Werkzeugen und Prozessen Diese Werkzeuge und Prozesse können als Graph Computing (auch Graph Analytics genannt) bezeichnet werden In diesem instruierten Live-Training lernen die Teilnehmer die Technologieangebote und Implementierungsansätze für die Verarbeitung von Grafikdaten kennen Ziel ist es, Realworld-Objekte, ihre Eigenschaften und Beziehungen zu identifizieren, diese Beziehungen zu modellieren und als Daten zu verarbeiten Wir beginnen mit einem breiten Überblick und konzentrieren uns auf bestimmte Tools, während wir eine Reihe von Fallstudien, praktischen Übungen und Live-Implementierungen durchlaufen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen, wie Diagrammdaten beibehalten und durchlaufen werden Wählen Sie das beste Framework für eine bestimmte Aufgabe aus (von Diagrammdatenbanken bis hin zu Frameworks für die Stapelverarbeitung) Implementieren Sie Hadoop, Spark, GraphX ​​und Pregel, um Graph-Computing parallel auf vielen Maschinen auszuführen Betrachten Sie reale Datenprobleme in Form von Graphen, Prozessen und Traversalen Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Predictive Analytics ist der Prozess der Verwendung von Datenanalysen, um Vorhersagen über die Zukunft zu treffen Dieser Prozess verwendet Daten zusammen mit Data-Mining-, Statistik- und maschinellen Lerntechniken, um ein Vorhersagemodell für die Vorhersage zukünftiger Ereignisse zu erstellen In diesem instruierten Live-Training lernen die Teilnehmer, wie sie Matlab nutzen können, um Vorhersagemodelle zu erstellen und sie auf große Beispieldatensätze anzuwenden, um zukünftige Ereignisse basierend auf den Daten vorherzusagen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie Vorhersagemodelle, um Muster in historischen und transaktionalen Daten zu analysieren Verwenden Sie Predictive Modeling, um Risiken und Chancen zu identifizieren Erstellen Sie mathematische Modelle, die wichtige Trends erfassen Verwenden Sie Daten von Geräten und Geschäftssystemen, um Verschwendung zu reduzieren, Zeit zu sparen oder Kosten zu senken Publikum Entwickler Ingenieure Domain-Experten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
7 hours
Overview
Apache NiFi (Hortonworks DataFlow) ist eine in Echtzeit integrierte Datenlogistik und einfache Ereignisverarbeitungsplattform, die das Bewegen, Tracking und die Automatisierung von Daten zwischen den Systemen ermöglicht. Es wird mit einer flow-basierten Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche, um Dataflows in Echtzeit zu verwalten.

In diesem von Ausbildern geleiteten Live-Training lernen die Teilnehmer die Grundlagen der Flow-basierten Programmierung kennen, wenn sie eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren mit Apache NiFi entwickeln

.

Am Ende dieses Trainings können die Teilnehmer:

- Verstehen Sie die Architektur und die Dataflow-Konzepte von NiFi & #39;.
- Erweiterungen mit NiFi und Drittanbieter-APIs
. - Custom entwickeln ihren eigenen Apache Nifi-Prozessor.
- Ingest und verarbeiten
Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen.

Format der

- interaktiven Vortrag und Diskussion
. - Viele Übungen und Übungen
. - Hands-on-Umsetzung in einem Live-Labor-Umfeld
.

- Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um
zu arrangieren.
21 hours
Overview
Apache NiFi (Hortonworks DataFlow) ist eine Echtzeit-integrierte Datenlogistik und eine einfache Ereignisverarbeitungsplattform, die das Verschieben, Verfolgen und Automatisieren von Daten zwischen Systemen ermöglicht Es ist mit Flow-basierten Programmierung geschrieben und bietet eine webbasierte Benutzeroberfläche, um Datenflüsse in Echtzeit zu verwalten In diesem instruierten Live-Training lernen die Teilnehmer, wie Apache NiFi in einer Live-Laborumgebung bereitgestellt und verwaltet wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Apachi NiFi Quelle, Transformation und Verwaltung von Daten aus verschiedenen verteilten Datenquellen, einschließlich Datenbanken und Big Data Seen Datenflüsse automatisieren Aktiviere Streaming-Analysen Wenden Sie verschiedene Ansätze für die Datenaufnahme an Transformieren Sie Big Data und Business Insights Publikum Systemadministratoren Dateningenieure Entwickler DevOps Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
28 hours
Overview
Die Datentresormodellierung ist eine Datenbankmodellierungstechnik, die eine langfristige historische Speicherung von Daten aus mehreren Quellen ermöglicht Ein Datentresor speichert eine einzelne Version der Fakten oder "alle Daten die ganze Zeit" Sein flexibles, skalierbares, konsistentes und anpassungsfähiges Design umfasst die besten Aspekte der 3 Normalform (3NF) und des Sternschemas In diesem instruierten Live-Training lernen die Teilnehmer, wie ein Data Vault erstellt wird Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die Architektur- und Designkonzepte von Data Vault 20 und die Interaktion mit Big Data, NoSQL und AI Verwenden Sie Data-Vaulting-Techniken, um die Überwachung, Verfolgung und Inspektion historischer Daten in einem Data Warehouse zu ermöglichen Entwickeln Sie einen konsistenten und wiederholbaren ETL-Prozess (Extract, Transform, Load) Erstellen und implementieren Sie hoch skalierbare und wiederholbare Warehouses Publikum Datenmodellierer Spezialist für Data Warehousing Business Intelligence-Spezialisten Dateningenieure Datenbankadministratoren Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Apache Drill ist eine schemafreie, verteilte, in Speicher geschriebene SQL-Abfrage-Engine für Hadoop, NoSQL und andere Cloud- und Dateispeichersysteme Die Stärke von Apache Drill liegt in der Fähigkeit, Daten aus mehreren Datenspeichern mit einer einzigen Abfrage zu verknüpfen Apache Drill unterstützt zahlreiche NoSQL-Datenbanken und Dateisysteme, darunter HBase, MongoDB, MapRDB, HDFS, MapRFS, Amazon S3, Azure Blobspeicher, Google Cloud Storage, Swift, NAS und lokale Dateien Apache Drill ist die Open-Source-Version des Google-Dremel-Systems, die als Infrastrukturdienst namens Google BigQuery verfügbar ist In diesem instruierten Live-Training lernen die Teilnehmer die Grundlagen von Apache Drill kennen und nutzen dann die Leistung und den Komfort von SQL, um interaktiv Big Data über mehrere Datenquellen abzufragen, ohne Code zu schreiben Die Teilnehmer lernen außerdem, wie sie ihre Drill-Abfragen für die verteilte SQL-Ausführung optimieren können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Führen Sie Self-Service-Exploration mit strukturierten und semistrukturierten Daten auf Hadoop durch Abfrage bekannter sowie unbekannter Daten mit SQL-Abfragen Verstehen Sie, wie Apache Drills Abfragen empfängt und ausführt Schreiben Sie SQL-Abfragen, um verschiedene Datentypen zu analysieren, einschließlich strukturierter Daten in Hive, semistrukturierter Daten in HBase- oder MapRDB-Tabellen und Daten, die in Dateien wie Parquet und JSON gespeichert werden Verwenden Sie Apache Drill, um die Schemaermittlung durchzuführen, ohne dass komplexe ETL- und Schemaoperationen erforderlich sind Integrieren Sie Apache Drill mit BI-Tools (Business Intelligence) wie Tableau, Qlikview, MicroStrategy und Excel Publikum Datenanalytiker Datenwissenschaftler SQL-Programmierer Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Datameer ist eine Business Intelligence- und Analyseplattform, die auf Hadoop basiert Enduser können große, strukturierte, semistrukturierte und unstrukturierte Daten auf einfache Weise abrufen, untersuchen und korrelieren In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Datameer die steile Lernkurve von Hadoop überwinden können, während sie die Einrichtung und Analyse einer Reihe großer Datenquellen durchlaufen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen, kuratieren und interaktiv einen Unternehmensdatensee erkunden Greifen Sie auf Business-Intelligence-Data-Warehouses, Transaktionsdatenbanken und andere Analyseläden zu Verwenden Sie eine Tabellenbenutzeroberfläche, um End-to-End-Datenverarbeitungspipelines zu entwerfen Greifen Sie auf vorgefertigte Funktionen zu, um komplexe Datenbeziehungen zu untersuchen Verwenden Sie DragandDrop-Assistenten, um Daten zu visualisieren und Dashboards zu erstellen Verwenden Sie Tabellen, Diagramme, Grafiken und Karten, um Abfrageergebnisse zu analysieren Publikum Datenanalytiker Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Tigon ist ein Open-Source-, Echtzeit-, Low-Latency-, High-Throughput-, natives YARN-, Stream-Processing-Framework, das auf HDFS und HBase für Persistenz sitzt Tigon-Anwendungen adressieren Anwendungsfälle wie Erkennung und Analyse von Netzwerkangriffen, Social-Media-Marktanalysen, Standortanalysen und Echtzeitempfehlungen für Benutzer In diesem instruierten Live-Training wird der Ansatz von Tigon zur Mischung von Echtzeit- und Batchverarbeitung vorgestellt, während die Teilnehmer durch die Erstellung einer Beispielanwendung geführt werden Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie leistungsfähige Stream-Processing-Anwendungen für die Verarbeitung großer Datenmengen Verarbeiten Sie Stream-Quellen wie Twitter- und Webserver-Logs Verwenden Sie Tigon zum schnellen Verbinden, Filtern und Aggregieren von Streams Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Apache Ignite ist eine Computer-Plattform im Speicher, die zwischen der Anwendung und der Datenschicht sitzt, um Geschwindigkeit, Skala und Verfügbarkeit zu verbessern.

In diesem von Ausbildern geleiteten Live-Training lernen die Teilnehmer die Prinzipien hinter einem dauerhaften und reinen In-Memory-Speicher kennen, wenn sie ein Proben-in-Memory-Computing-Projekt erstellen

.

Am Ende dieses Trainings können die Teilnehmer:

- Verwenden Sie Ignite für den Speicher, die Hartnäckigkeit auf der Festplatte sowie eine rein verteilte In-Memory-Datenbank
. - Durchhaltevermögen erreichen
, ohne Daten wieder in eine relationale Datenbank zu synchronisieren. - Verwenden Sie Ignite, um SQL und verteilte Joins auszuführen.
- die Leistung verbessern, indem die Daten näher an die CPU rücken, indem RAM als Speicher verwendet wird
- Spread-Daten über einen Cluster,
um eine horizontale Skalierbarkeit zu erreichen. - mit RDBMS, NoSQL, Hadoop und maschinellen Lernprozessoren
integrieren.

Format der

- interaktiven Vortrag und Diskussion
. - Viele Übungen und Übungen
. - Hands-on-Umsetzung in einem Live-Labor-Umfeld
.

- Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um
zu arrangieren.
14 hours
Overview
Vespa eine Open-Source-Big-Data-Verarbeitung und Serving-Engine von Yahoo erstellt Es wird verwendet, um auf Benutzeranfragen zu reagieren, Empfehlungen zu geben und personalisierte Inhalte und Werbung in Echtzeit bereitzustellen Dieses instruktorierte Live-Training stellt die Herausforderungen dar, mit denen große Datenmengen bereitgestellt werden, und führt die Teilnehmer durch die Erstellung einer Anwendung, die Antworten auf Benutzeranforderungen über große Datensätze in Echtzeit berechnen kann Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verwenden Sie Vespa, um schnell Daten zu berechnen (speichern, suchen, sortieren, organisieren), während der Benutzer wartet Implementieren Sie Vespa in bestehende Anwendungen mit Feature-Suche, Empfehlungen und Personalisierung Integrieren und implementieren Sie Vespa mit bestehenden Big-Data-Systemen wie Hadoop und Storm Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Overview
Apache Apex ist eine YARNnative-Plattform, die Stream- und Batch-Verarbeitung vereint Es verarbeitet große Datenbewegungen in einer Weise, die skalierbar, performant, fehlertolerant, zustandsorientiert, sicher, verteilt und einfach zu bedienen ist Dieses integrierte Live-Training stellt Apache Apex's vereinheitlichte Stream-Processing-Architektur vor und führt die Teilnehmer durch die Erstellung einer verteilten Anwendung mit Apex auf Hadoop Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verständnis von Datenverarbeitungs-Pipeline-Konzepten wie Konnektoren für Quellen und Senken, gemeinsame Datentransformationen usw Erstellen, skalieren und optimieren Sie eine Apex-Anwendung Verarbeiten Sie Echtzeitdatenströme zuverlässig und mit minimaler Latenz Verwenden Sie Apex Core und die Apex Malhar-Bibliothek, um eine schnelle Anwendungsentwicklung zu ermöglichen Verwenden Sie die Apex-API, um vorhandenen Java-Code zu schreiben und wiederzuverwenden Integrieren Sie Apex als Verarbeitungsmodul in andere Anwendungen Optimieren, testen und skalieren Sie Apex-Anwendungen Publikum Entwickler Unternehmensarchitekten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
7 hours
Overview
Alexio ist ein virtuelles virtuelles verteiltes Speichersystem, das verteilte Speichersysteme vereint und Anwendungen mit Daten mit Speichergeschwindigkeit interagieren lässt Es wird von Unternehmen wie Intel, Baidu und Alibaba verwendet In diesem instruierten Live-Training lernen die Teilnehmer, wie sie mithilfe von Alexio verschiedene Berechnungs-Frameworks mit Speichersystemen überbrücken und Multipetabyte-Daten effizient verwalten können, während sie mit Alluxio eine Anwendung erstellen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Entwickeln Sie eine Anwendung mit Alluxio Verbinden Sie Big-Data-Systeme und -Anwendungen unter Beibehaltung eines Namespace Effiziente Extraktion von Werten aus Big Data in jedem Speicherformat Verbessern Sie die Arbeitslastleistung Bereitstellen und Verwalten von Alluxio Standalone oder Clustered Publikum Datenwissenschaftler Entwickler Systemadministrator Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
28 hours
Overview
Apache Flink ist ein Open-Source-Framework für die skalierbare Stream-und Batch-Datenverarbeitung

.

Dieses von Lehrern geleitete Live-Training stellt die Prinzipien und Ansätze hinter der verteilten Stream-und Batch-Datenverarbeitung vor und geht die Teilnehmer durch die Erstellung einer Echtzeit-Daten-Streaming-Anwendung in Apache Flink

.

Am Ende dieses Trainings können die Teilnehmer:

- Eine Umgebung für die Entwicklung von Datenanalyse-Anwendungen
einrichten. -
, die Flink-basierte, fehlertolerante Datenstreaming-Anwendungen. - unterschiedliche Arbeitsbelastung
verwalten. - mit Flink ML. erweiterte Analytik
- Setzen Sie einen Multi-Knoden-Flink-Cluster
. - die Leistung messen und optimieren
. -
die Flink mit verschiedenen Big-Data-Systemen integrieren. - Vergleichen Sie die Flink-Fähigkeiten mit denen anderer
Big Data Processing.

Format des Kurses

- Teil-Vortrag, Teilbesprechung, Übungen und schwere Hands-on-Praxis
14 hours
Overview
Apache Samza ist ein OpenSource-Echtzeit-asynchrones Berechnungs-Framework für die Stream-Verarbeitung Es verwendet Apache Kafka für Messaging und Apache Hadoop YARN für Fehlertoleranz, Prozessorisolierung, Sicherheit und Ressourcenverwaltung Dieses instruierte Live-Training stellt die Prinzipien vor, die hinter Messaging-Systemen und verteilter Stream-Verarbeitung stehen, während die Teilnehmer durch die Erstellung eines Samzabased-Beispielprojekts und der Jobausführung geführt werden Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verwenden Sie Samza, um den Code zu vereinfachen, der zum Erstellen und Verwenden von Nachrichten benötigt wird Entkoppeln Sie die Handhabung von Nachrichten aus einer Anwendung Verwenden Sie Samza, um die asynchrone Echtzeitberechnung zu implementieren Verwenden Sie die Stream-Verarbeitung, um eine höhere Abstraktionsebene als Messaging-Systeme bereitzustellen Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Apache Zeppelin ist ein webbasiertes Notebook zum Erfassen, Erkunden, Visualisieren und Teilen von Hadoop- und Spark-basierten Daten Dieses instruierte Live-Training stellt die Konzepte hinter der interaktiven Datenanalyse vor und führt die Teilnehmer durch die Bereitstellung und Nutzung von Zeppelin in einer Singleuser- oder Multiuser-Umgebung Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Zeppelin Entwickeln, organisieren, ausführen und teilen Sie Daten in einer browserbasierten Oberfläche Visualisieren Sie Ergebnisse, ohne auf die Befehlszeilen- oder Clusterdetails Bezug zu nehmen Führen Sie lange Workflows aus und arbeiten Sie mit ihnen zusammen Arbeiten Sie mit einer Reihe von Sprach- / Datenverarbeitungsbackbacks für Plugins wie Scala (mit Apache Spark), Python (mit Apache Spark), Spark SQL, JDBC, Markdown und Shell Integrieren Sie Zeppelin mit Spark, Flink und Map Reduce Sichere Multiuser-Instanzen von Zeppelin mit Apache Shiro Publikum Dateningenieure Datenanalytiker Datenwissenschaftler Softwareentwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
28 hours
Overview
MonetDB ist eine Open-Source-Datenbank, die den Columnstore-Technologieansatz vorangebracht hat In diesem instruierten Live-Training lernen die Teilnehmer, wie sie MonetDB nutzen und den größtmöglichen Nutzen daraus ziehen können Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie MonetDB und seine Funktionen Installieren und starten Sie mit MonetDB Erforschen und führen Sie verschiedene Funktionen und Aufgaben in MonetDB aus Beschleunigen Sie die Bereitstellung Ihres Projekts, indem Sie die MonetDB-Funktionen maximieren Publikum Entwickler Technische Experten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
AI ist eine Sammlung von Technologien zum Aufbau intelligenter Systeme, die Daten und Aktivitäten rund um die Daten verstehen können, um "intelligente Entscheidungen" zu treffen Für Telekommunikationsanbieter könnte die Entwicklung von Anwendungen und Diensten, die KI nutzen, die Tür für einen verbesserten Betrieb und Service in Bereichen wie Wartung und Netzwerkoptimierung öffnen In diesem Kurs untersuchen wir die verschiedenen Technologien, aus denen AI besteht, und die erforderlichen Fähigkeiten, um sie einzusetzen Während des Kurses untersuchen wir die spezifischen Anwendungen von AI innerhalb der Telekommunikationsbranche Publikum Netzwerkingenieure Netzwerkbetriebspersonal Telekom technische Manager Format des Kurses Teilvorlesung, Teildiskussion, praktische Übungen .
21 hours
Overview
Die Hortonworks Data Platform ist eine Open-Source Apache Hadoop-Support-Plattform, die eine stabile Grundlage für die Entwicklung von Big Data-Lösungen für das Apache Hadoop-Ökosystem bietet Dieses instruierte Live-Training stellt Hortonworks vor und führt die Teilnehmer durch den Einsatz der Spark + Hadoop-Lösung Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verwenden Sie Hortonworks, um Hadoop in großem Umfang zuverlässig auszuführen Vereinheitlichen Sie die Sicherheits-, Governance- und Betriebsfunktionen von Hadoop mit Sparks agilen analytischen Workflows Verwenden Sie Hortonworks, um jede Komponente in einem Spark-Projekt zu untersuchen, zu validieren, zu zertifizieren und zu unterstützen Verarbeiten Sie verschiedene Arten von Daten, einschließlich strukturiert, unstrukturiert, Inmotion und atrest Publikum Hadoop-Administratoren Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Overview
Apache Beam ist ein Open-Source-Programm zur einheitlichen Definition und Ausführung von parallelen Datenverarbeitungspipelines Seine Stärke liegt in der Fähigkeit, sowohl Batch- als auch Streaming-Pipelines auszuführen, wobei die Ausführung durch eines der von Beam unterstützten verteilten Verarbeitungs-Backends ausgeführt wird: Apache Apex, Apache Fink, Apache Spark und Google Cloud Dataflow Apache Beam ist nützlich für ETL-Aufgaben (Extrahieren, Transformieren und Laden), z B zum Verschieben von Daten zwischen verschiedenen Speichermedien und Datenquellen, zum Umwandeln von Daten in ein wünschenswertes Format und zum Laden von Daten in ein neues System In diesem instruierten Live-Training (vor Ort oder remote) lernen die Teilnehmer, wie sie die Apache Beam SDKs in einer Java- oder Python-Anwendung implementieren, die eine Datenverarbeitungspipeline zum Zerlegen eines großen Datensatzes in kleinere Blöcke für die unabhängige, parallele Verarbeitung definiert Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Apache Beam Verwenden Sie ein einzelnes Programmiermodell, um sowohl die Batch- als auch die Stream-Verarbeitung auszuführen, indem Sie ihre Java- oder Python-Anwendung verwenden Führen Sie Pipelines über mehrere Umgebungen hinweg aus Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen Hinweis Dieser Kurs wird in Zukunft Scala zur Verfügung stehen Bitte kontaktieren Sie uns, um zu vereinbaren .
35 hours
Overview
KNIME is a free and open-source data analytics, reporting and integration platform. KNIME integrates various components for machine learning and data mining through its modular data pipelining concept. A graphical user interface and use of JDBC allows assembly of nodes blending different data sources, including preprocessing (ETL: Extraction, Transformation, Loading), for modeling, data analysis and visualization without, or with only minimal, programming. To some extent as advanced analytics tool KNIME can be considered as a SAS alternative.

Since 2006, KNIME has been used in pharmaceutical research, it also used in other areas like CRM customer data analysis, business intelligence and financial data analysis.
21 hours
Overview
Pivotal Greenplum is a Massively Parallel Processing (MPP) Data Warehouse platform based on PostgreSQL.

This instructor-led, live training (onsite or remote) is aimed at developers who wish to set up a multi-node Greenplum database.

By the end of this training, participants will be able to:

- Install and configure Pivotal Greenplum.
- Model data in accordance to current needs and future expansion plans.
- Carry out different techniques for distributing data across multiple nodes.
- Improve database performance through tuning.
- Monitor and troubleshoot a Greenplum database.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
14 hours
Overview
Dieses von Lehrern geleitete Live-Training (vor Ort oder Remote) richtet sich an Ingenieure, die Confluent (eine Distribution von Kafka) nutzen möchten, um eine Echtzeit-Datenverarbeitungsplattform für ihre Anwendungen zu erstellen und zu verwalten.

Am Ende dieses Trainings können die Teilnehmer:

- installieren und konfluent Platform konfigurieren.
- verwenden Sie die Management-Tools und-Dienste von Confluent, um Kafka einfacher zu betreiben.
- die eingehenden Streamdaten speichern und verarbeiten.
- Kafka Cluster optimieren und verwalten.
- Datenströme sichern.

Format der

- interaktiven Vortrag und Diskussion
. - Viele Übungen und Übungen
. - Hands-on-Umsetzung in einem Live-Labor-Umfeld
.

- Dieser Kurs basiert auf der Open-Source-Version von Confluent: Confluent Open Source.
- Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um
zu arrangieren.
14 hours
Overview
Dieses von Lehrern geleitete Live-Training (vor Ort oder Remote) richtet sich an Datenanalysten und Datenwissenschaftler, die mit Python fortschrittlichere Datenanalysetechniken für das Data Mining implementieren wollen.

Am Ende dieses Trainings können die Teilnehmer:

- Verstehen Sie wichtige Bereiche des Data Mining, einschließlich des Verbandsregisterbergbaus, der Analyse der Textstimmung, der automatischen Textzusammenfassung und der Erkennung von Daten.
- verschiedene Strategien zur Lösung von Problemen im Data Mining in der realen Welt zu vergleichen und umzusetzen.
- Verstehen und interpretieren.

Format der

- interaktiven Vortrag und Diskussion
. - Viele Übungen und Übungen
. - Hands-on-Umsetzung in einem Live-Labor-Umfeld
.

- Um ein maßgeschneidertes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um
zu arrangieren.
Big Data Schulung, Big Data boot camp, Big Data Abendkurse, Big Data Wochenendkurse, Big Data Kurs, Big Data Training, Big Data Seminar, Big Data Seminare, Big Data Privatkurs, Big Data Coaching, Big Data Lehrer

Sonderangebote

Course Discounts Newsletter

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

EINIGE UNSERER KUNDEN

is growing fast!

We are looking to expand our presence in Austria!

As a Business Development Manager you will:

  • expand business in Austria
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!