Big Data Schulungen

Big Data Schulungen

Lokale, von Ausbildern geführte Live-Big-Data-Schulungen beginnen mit einer Einführung in elementare Konzepte von Big Data und führen dann zu den Programmiersprachen und Methoden, die zur Durchführung der Datenanalyse verwendet werden. Tools und Infrastruktur zur Aktivierung von Big Data Storage, Distributed Processing und Skalierbarkeit werden in Demo-Übungssessions diskutiert, verglichen und implementiert. Big Data Training ist als "Live-Training vor Ort" oder "Fern-Live-Training" verfügbar. Onsite Live Training kann vor Ort bei Kunden durchgeführt werden Österreich oder in NobleProg Corporate Trainingszentren in Österreich . Remote-Live-Training wird über einen interaktiven Remote-Desktop durchgeführt. NobleProg - Ihr lokaler Trainingsanbieter

Machine Translated

Erfahrungsberichte

★★★★★
★★★★★

Big Data Kurspläne

Name des Kurses
Dauer
Überblick
Name des Kurses
Dauer
Überblick
21 hours
Überblick
Apache Accumulo ist ein sortierter, verteilter Schlüssel- / Apache Accumulo , der eine robuste, skalierbare Speicherung und Abfrage von Daten ermöglicht. Es basiert auf dem Design von Go Ogle BigTable und wird von Apache betrieben Hadoop , Apache Zookeeper und Apache Thrift .

Dieser von Lehrern geführte Live-Kurs behandelt die Arbeitsweise von Accumulo und führt die Teilnehmer durch die Entwicklung einer Beispielanwendung für Apache Accumulo .

Format des Kurses

- Teilvorlesung, Teildiskussion, praktische Entwicklung und Implementierung, gelegentliche Tests zur Beurteilung des Verständnisses
21 hours
Überblick
Im Gegensatz zu anderen Technologien ist das IoT weitaus komplexer und umfasst nahezu alle Bereiche der Kernbranche Engineering-Mechanical, Electron , Firmware, Middleware, Cloud, Analytics und Mobile. Für jede seiner technischen Ebenen gibt es Aspekte der Wirtschaftlichkeit, der Normen, Vorschriften und des sich entwickelnden Standes der Technik. Dies ist für die erste Zeit ein bescheidener Kurs, der all diese kritischen Aspekte des IoT-Engineerings abdeckt.

Zusammenfassung

-

Ein Fortbildungsprogramm zum aktuellen Stand der Technik im Internet der Dinge

-

Schneidet über mehrere Technologiedomänen hinweg, um das Bewusstsein für ein IoT-System und seine Komponenten zu entwickeln und wie es Unternehmen und Organisationen helfen kann.

-

Live-Demo von Modell-IoT-Anwendungen zur Demonstration praktischer IoT-Bereitstellungen in verschiedenen Industriebereichen, z. B. Industrie-IoT, Smart Cities, Einzelhandel, Reisen und Transport sowie Anwendungsfälle für verbundene Geräte und Dinge

Zielgruppe

-

Manager, die in ihren jeweiligen Organisationen für Geschäfts- und Betriebsprozesse verantwortlich sind und wissen möchten, wie sie das Internet der Dinge nutzen können, um ihre Systeme und Prozesse effizienter zu gestalten.

-

Unternehmer und Investoren, die neue Projekte aufbauen und ein besseres Verständnis der IoT-Technologielandschaft entwickeln möchten, um zu sehen, wie sie diese auf effektive Weise nutzen können.

Die Schätzungen für das Internet der Dinge oder den IoT-Marktwert sind enorm, da das IoT per Definition eine integrierte und diffuse Schicht aus Geräten, Sensoren und Rechenleistung ist, die die gesamte Verbraucher-, Business-to-Business- und Regierungsbranche überlagert. Das Internet der Dinge wird für eine immer größere Anzahl von Verbindungen verantwortlich sein: 1,9 Milliarden Geräte heute und 9 Milliarden bis 2018. In diesem Jahr wird es in etwa der Anzahl von Smartphones, Smart-TVs, Tablets, tragbaren Computern und PCs entsprechen.

Im Consumer-Bereich sind bereits viele Produkte und Dienstleistungen in das Internet der Dinge übergegangen, einschließlich Küchen- und Haushaltsgeräten, Parkplätzen, RFID, Beleuchtungs- und Heizungsprodukten sowie einer Reihe von Anwendungen im industriellen Internet.

Die zugrunde liegenden Technologien des IoT sind jedoch nichts Neues, da M2M-Kommunikation seit der Geburt des Internets existierte. Was sich in den letzten Jahren jedoch geändert hat, ist die zunehmende Anzahl kostengünstiger Funktechnologien, die durch die überwältigende Anpassung von Smartphones und Tablets in jedem Haushalt hinzugefügt wurden. Das explosive Wachstum mobiler Geräte führte zu einer aktuellen Nachfrage nach IoT.

Aufgrund der unbegrenzten Möglichkeiten im IoT-Geschäft stieg eine große Anzahl kleiner und mittlerer Unternehmer in einen Zug des IoT-Goldrausches ein. Aufgrund des Aufkommens von Open Source-Elektronik und IoT-Plattform werden die Kosten für die Entwicklung des IoT-Systems und die weitere Verwaltung seiner umfangreichen Produktion zunehmend erschwinglicher. Bestehende Besitzer elektronischer Produkte stehen unter dem Druck, ihr Gerät in das Internet oder die mobile App zu integrieren.

Diese Schulung ist für einen Technologie- und Geschäftsüberblick über eine aufstrebende Branche gedacht, damit IoT-Enthusiasten / -Unternehmer die Grundlagen der IoT-Technologie und des Geschäfts erlernen können.

Kursziel

Hauptziel des Kurses ist es, neue technologische Optionen, Plattformen und Fallstudien der IoT-Implementierung in den Bereichen Heim- und Stadtautomation (Smart Homes und Städte), Industrielles Internet, Gesundheitswesen, Go vt., Mobile Cellular und anderen Bereichen vorzustellen.

-

Grundlegende Einführung in alle Elemente von IoT-Mechanical, Electron / Sensor-Plattform, Wireless- und Wireline-Protokollen, Integration von Mobile zu Electron Integration von Mobile zu Enterprise, Datenanalyse und Total Control Plane

-

M2M Wireless-Protokolle für IoT-WiFi, ZigBee / Zwave, Bluetooth, ANT +: Wann und wo welche verwenden?

-

Mobile / Desktop / Web-App - für Registrierung, Datenerfassung und Steuerung - Verfügbare M2M-Datenerfassungsplattform für IoT - Xively, Omega und NovoTech usw.

-

Sicherheitsprobleme und Sicherheitslösungen für das Internet der Dinge

-

Open Source / kommerzielle Elektronikplattform für IoT- Raspberry Pi , Arduino , ArmMbedLPC etc

-

Open-Source- / kommerzielle Enterprise-Cloud-Plattform für AWS-IoT-Apps, Azure IOT-, Watson-IOT-Cloud sowie andere kleinere IoT-Clouds

-

Betriebswirtschaftliche und technische Studien zu einigen der gängigen IoT-Geräte wie Heimautomation, Rauchmelder, Fahrzeuge, Militär, Heimgesundheit usw.
21 hours
Überblick
MATLAB ist eine von MathWorks entwickelte numerische Programmierumgebung und Programmiersprache .
7 hours
Überblick
In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Kernkonzepte von MapR Stream Architecture kennen, während sie eine Echtzeit-Streaming-Anwendung entwickeln.

Am Ende dieser Schulung werden die Teilnehmer in der Lage sein, Produzenten- und Konsumentenanwendungen für die Datenverarbeitung in Echtzeit zu erstellen.

Publikum

- Entwickler
- Administratoren

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben

Hinweis

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 hours
Überblick
Magellan ist eine Open-Source-Engine für die verteilte Ausführung von Geodatenanalysen für Big Data. Auf Apache Spark implementiert, erweitert es Spark SQL und bietet eine relationale Abstraktion für Geospatial Analytics.

Dieses von Lehrern geleitete Live-Training führt in die Konzepte und Ansätze zur Implementierung von Geospacial Analytics ein und führt die Teilnehmer durch die Erstellung einer Predictive Analysis-Anwendung mit Magellan on Spark.

Am Ende dieser Schulung können die Teilnehmer:

- Effizientes Abfragen, Parsen und Verknüpfen von Geodatensätzen im Maßstab
- Implementieren Sie Geodaten in Business Intelligence- und Predictive Analytics-Anwendungen
- Verwenden Sie den räumlichen Kontext, um die Funktionen von Mobilgeräten, Sensoren, Protokollen und Wearables zu erweitern

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 hours
Überblick
Apache Kylin ist eine extreme, verteilte Analyse-Engine für Big Data.

In diesem von Lehrern geleiteten Live-Training lernen die Teilnehmer, wie sie mit Apache Kylin ein Echtzeit-Data Warehouse einrichten.

Am Ende dieser Schulung können die Teilnehmer:

- Verbrauchen Sie Echtzeit-Streaming-Daten mit Kylin
- Nutzen Sie die leistungsstarken Funktionen von Apache Kylin , die reichhaltige SQL Oberfläche, das Spark Cubing und die Latenz von Abfragen im Sekundentakt

Hinweis

- Wir verwenden die neueste Version von Kylin (zum Zeitpunkt des Schreibens Apache Kylin v2.0).

Publikum

- Big Data-Ingenieure
- Big Data Analysten

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
7 hours
Überblick
Confluent K SQL ist ein Stream-Processing-Framework, das auf Apache Kafka . Es ermöglicht die Echtzeit-Datenverarbeitung mit SQL Operationen.

Dieses Live-Training (vor Ort oder per Fernzugriff) richtet sich an Entwickler, die die Apache Kafka Stream-Verarbeitung implementieren möchten, ohne Code schreiben zu müssen.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Confluent K SQL .
- Richten Sie eine Stream-Verarbeitungs-Pipeline nur mit SQL Befehlen ein (keine Java oder Python Codierung).
- Führen Sie Datenfilterung, -transformationen, -aggregationen, -verknüpfungen, -fenster und -sitzungen vollständig in SQL .
- Entwerfen und implementieren Sie interaktive, fortlaufende Abfragen für das Streaming von ETL- und Echtzeitanalysen.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
35 hours
Überblick
KNIME is a free and open-source data analytics, reporting and integration platform. KNIME integrates various components for machine learning and data mining through its modular data pipelining concept. A graphical user interface and use of JDBC allows assembly of nodes blending different data sources, including preprocessing (ETL: Extraction, Transformation, Loading), for modeling, data analysis and visualization without, or with only minimal, programming. To some extent as advanced analytics tool KNIME can be considered as a SAS alternative.

Since 2006, KNIME has been used in pharmaceutical research, it also used in other areas like CRM customer data analysis, business intelligence and financial data analysis.
21 hours
Überblick
KNIME Analytics Platform ist eine führende Open-Source-Option für datengetriebene Innovationen. Sie hilft Ihnen dabei, das in Ihren Daten verborgene Potenzial zu entdecken, neue Erkenntnisse zu gewinnen oder neue Zukünfte vorherzusagen. Mit mehr als 1000 Modulen, Hunderten von einsatzbereiten Beispielen, einer umfassenden Palette integrierter Tools und der größten Auswahl an fortschrittlichen Algorithmen ist die KNIME Analytics Platform die perfekte Toolbox für jeden Datenwissenschaftler und Geschäftsanalysten.

Dieser Kurs für die KNIME Analytics-Plattform ist eine ideale Gelegenheit für Anfänger, fortgeschrittene Benutzer und KNIME Experten, um sich mit KNIME zu machen, seine effektivere Verwendung zu erlernen und klare, umfassende Berichte auf der Grundlage von KNIME Workflows zu erstellen
21 hours
Überblick
Wissenserkennung in Datenbanken (KDD) ist der Prozess der Erkennung nützlichen Wissens aus einer Sammlung von Daten. Zu den realen Anwendungen für diese Data-Mining-Technik gehören Marketing, Betrugserkennung, Telekommunikation und Fertigung.

In diesem von Lehrern geführten Live-Kurs stellen wir die mit KDD verbundenen Prozesse vor und führen eine Reihe von Übungen durch, um die Implementierung dieser Prozesse zu üben.

Publikum

- Datenanalysten oder Personen, die lernen möchten, wie Daten interpretiert werden, um Probleme zu lösen

Format des Kurses

- Nach einer theoretischen Diskussion über KDD wird der Ausbilder reale Fälle vorstellen, in denen die Anwendung von KDD zur Lösung eines Problems erforderlich ist. Die Teilnehmer werden Probendatensätze vorbereiten, auswählen und bereinigen und ihre Vorkenntnisse in Bezug auf die Daten nutzen, um basierend auf den Ergebnissen ihrer Beobachtungen Lösungen vorzuschlagen.
7 hours
Überblick
Kafka Streams ist eine clientseitige Bibliothek zum Erstellen von Anwendungen und Mikrodiensten, deren Daten an ein und von einem Kafka-Messagingsystem übertragen werden. Traditionell hat sich Apache Kafka auf Apache Spark oder Apache Storm , um Daten zwischen Nachrichtenproduzenten und -konsumenten zu verarbeiten. Durch Aufrufen der Kafka Streams-API aus einer Anwendung heraus können Daten direkt in Kafka verarbeitet werden, ohne dass die Daten zur Verarbeitung an einen separaten Cluster gesendet werden müssen.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie Kafka-Streams in eine Reihe von Java Beispielanwendungen integrieren, die Daten zur Stream-Verarbeitung an Apache Kafka und von diesem weitergeben.

Am Ende dieser Schulung können die Teilnehmer:

- Verstehen der Funktionen und Vorteile von Kafka Streams gegenüber anderen Frameworks für die Stream-Verarbeitung
- Verarbeiten Sie Stream-Daten direkt in einem Kafka-Cluster
- Schreiben Sie eine Java oder Scala Anwendung oder einen Microservice, der sich in Kafka und Kafka Streams integrieren lässt
- Schreiben Sie prägnanten Code, der Eingabe-Kafka-Themen in Ausgabe-Kafka-Themen umwandelt
- Erstellen, packen und implementieren Sie die Anwendung

Publikum

- Entwickler

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben

Anmerkungen

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren
21 hours
Überblick
Stream Processing bezieht sich auf die Echtzeitverarbeitung von "Daten in Bewegung", dh das Ausführen von Berechnungen für Daten, während diese empfangen werden. Solche Daten werden als fortlaufende Datenströme aus Datenquellen wie Sensorereignissen, Website-Benutzeraktivitäten, Finanzgeschäften, Kreditkartenüberprüfungen, Klickströmen usw. gelesen. Stream Processing Frameworks können große Datenmengen lesen und wertvolle Erkenntnisse fast augenblicklich liefern.

In diesem von Lehrern geführten Live-Training (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie verschiedene Stream Processing Frameworks mit vorhandenen Big Data-Speichersystemen und zugehörigen Softwareanwendungen und Mikrodiensten eingerichtet und integriert werden.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie verschiedene Stream Processing Frameworks, z. B. Spark Streaming und Kafka Streaming.
- Verstehen und wählen Sie den am besten geeigneten Rahmen für den Job.
- Kontinuierliche, zeitgleiche und aufzeichnungsweise Datenverarbeitung.
- Integrieren Sie Stream Processing Lösungen in vorhandene Datenbanken, Data Warehouses, Data Lakes usw.
- Integrieren Sie die am besten geeignete Stream-Processing-Bibliothek in Unternehmensanwendungen und Microservices.

Publikum

- Entwickler
- Software-Architekten

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben

Anmerkungen

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
28 hours
Überblick
Mem SQL ist ein speicherinternes, verteiltes SQL Datenbankverwaltungssystem für Clouds und lokale Anwendungen. Es handelt sich um ein Echtzeit-Data-Warehouse, das sofort Einblicke in Live- und Verlaufsdaten bietet.

In diesem von Lehrern geführten Live-Training lernen die Teilnehmer die Grundlagen von Mem SQL für die Entwicklung und Verwaltung.

Am Ende dieser Schulung können die Teilnehmer:

- Verstehen Sie die wichtigsten Konzepte und Eigenschaften von Mem SQL
- Installieren, entwerfen, warten und betreiben Sie Mem SQL
- Optimieren Sie Schemata in Mem SQL
- Verbessern Sie Abfragen in Mem SQL
- Benchmark-Leistung in Mem SQL
- Erstellen Sie Echtzeit-Datenanwendungen mit Mem SQL

Publikum

- Entwickler
- Administratoren
- Betriebsingenieure

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
14 hours
Überblick
Audienz

- Entwickler

Format der

- Vorträge, praktische Übungen, kleine Tests auf dem Weg, um Verständnis zu messen
21 hours
Überblick
Cloudera Impala ist eine Open-Source- SQL Abfrage-Engine (MPP = Massively Parallel Processing) für Apache Hadoop Cluster.

Impala können Benutzer SQL Abfragen mit geringer Latenz für Daten ausgeben, die in Hadoop Distributed File System und Apache Hbase gespeichert sind, ohne Daten verschieben oder transformieren zu müssen.

Publikum

Dieser Kurs richtet sich an Analysten und Datenwissenschaftler, die Hadoop Business Intelligence oder SQL Tools in Hadoop gespeicherte Daten analysieren.

Nach diesem Kurs werden die Teilnehmer in der Lage sein

- Extrahieren Sie mit Impala aussagekräftige Informationen aus Hadoop Clustern.
- Schreiben Sie spezielle Programme, um Business Intelligence in Impala SQL Dialect zu vereinfachen.
- Fehlerbehebung bei Impala .
7 hours
Überblick
Dieser Kurs behandelt die Verwendung der Hive SQL Sprache (AKA: Hive HQL, SQL in Hive , Hive QL) für Personen, die Daten aus Hive extrahieren
21 hours
Überblick
Hortonworks Data Platform (HDP) ist eine Open-Source-Supportplattform für Apache Hadoop , die eine stabile Grundlage für die Entwicklung von Big-Data-Lösungen im Apache Hadoop Ökosystem bietet.

In diesem von einem Kursleiter durchgeführten Live-Training (vor Ort oder per Fernzugriff) wird die Hortonworks Data Platform (HDP) und die Teilnehmer durch die Bereitstellung der Spark + Hadoop Lösung geführt.

Am Ende dieser Schulung können die Teilnehmer:

- Verwenden Sie Hortonworks, um Hadoop zuverlässig in großem Maßstab auszuführen.
- Vereinheitlichen Sie die Sicherheits-, Governance- und Betriebsfunktionen von Hadoop mit den agilen Analyse-Workflows von Spark.
- Verwenden Sie Hortonworks, um alle Komponenten in einem Spark-Projekt zu untersuchen, zu validieren, zu zertifizieren und zu unterstützen.
- Verarbeiten Sie verschiedene Arten von Daten, einschließlich strukturierter, unstrukturierter, bewegter und ruhender Daten.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
21 hours
Überblick
In diesem Kurs wird HBase vorgestellt - ein No SQL Speicher über Hadoop . Der Kurs richtet sich an Entwickler, die HBase zum Entwickeln von Anwendungen verwenden, sowie an Administratoren, die HBase-Cluster verwalten.

Wir werden einen Entwickler durch die HBase-Architektur sowie die Datenmodellierung und Anwendungsentwicklung auf HBase führen. Außerdem werden die Verwendung von MapReduce mit HBase und einige Verwaltungsthemen im Zusammenhang mit der Leistungsoptimierung erläutert. Der Kurs ist sehr praktisch mit vielen Laborübungen.

Dauer : 3 Tage

Zielgruppe : Entwickler und Administratoren
28 hours
Überblick
Hadoop ist ein beliebtes Big Data-Verarbeitungsframework Python ist eine Highlevel-Programmiersprache, die für ihre klare Syntax und Code-Lesbarkeit bekannt ist In diesem instruierten Live-Training lernen die Teilnehmer mithilfe von Python, wie sie mit Hadoop, MapReduce, Pig und Spark arbeiten, indem sie mehrere Beispiele und Anwendungsfälle durchgehen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verstehen Sie die grundlegenden Konzepte von Hadoop, MapReduce, Pig und Spark Verwenden Sie Python mit Hadoop Distributed File System (HDFS), MapReduce, Pig und Spark Verwenden Sie Snakebite, um programmgesteuert auf HDFS in Python zuzugreifen Verwenden Sie mrjob, um MapReduce-Jobs in Python zu schreiben Schreibe Spark-Programme mit Python Erweitern Sie die Funktionalität von Pig mithilfe von Python-UDFs Verwalten Sie MapReduce-Jobs und Pig-Skripte mit Luigi Publikum Entwickler IT-Fachleute Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
28 hours
Überblick
Publikum:

Dieser Kurs soll Big Data / Hadoop-Technologie entmystifizieren und zeigen, dass es nicht schwer zu verstehen ist.
14 hours
Überblick
Da immer mehr Software- und IT-Projekte von lokaler Verarbeitung und Datenverwaltung zu verteilter Verarbeitung und Speicherung von Big Data migrieren, müssen die Projektmanager ihre Kenntnisse und Fähigkeiten verbessern, um die Konzepte und Praktiken zu erfassen, die für Big Data Projekte und -Chancen relevant sind.

Dieser Kurs führt Projektmanager in das beliebteste Big Data Verarbeitungsframework ein: Hadoop .

In dieser von Lehrern geleiteten Schulung lernen die Teilnehmer die Kernkomponenten des Hadoop Ökosystems kennen und wie diese Technologien zur Lösung großer Probleme eingesetzt werden können. Durch das Erlernen dieser Grundlagen verbessern die Teilnehmer auch ihre Fähigkeit, mit den Entwicklern und Implementierern dieser Systeme sowie mit den Datenwissenschaftlern und Analysten zu kommunizieren, an denen viele IT-Projekte beteiligt sind.

Publikum

- Projektmanager, die Hadoop in ihre bestehende Entwicklungs- oder IT-Infrastruktur implementieren möchten
- Projektmanager müssen mit funktionsübergreifenden Teams kommunizieren, zu denen Big Data-Ingenieure, Data Scientists und Business Analysten gehören

Format des Kurses

- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
21 hours
Überblick
Hadoop ist das beliebteste Big Data-Verarbeitungsframework .
21 hours
Überblick
Predictive Analytics ist der Prozess der Verwendung von Datenanalysen, um Vorhersagen über die Zukunft zu treffen Dieser Prozess verwendet Daten zusammen mit Data-Mining-, Statistik- und maschinellen Lerntechniken, um ein Vorhersagemodell für die Vorhersage zukünftiger Ereignisse zu erstellen In diesem instruierten Live-Training lernen die Teilnehmer, wie sie Matlab nutzen können, um Vorhersagemodelle zu erstellen und sie auf große Beispieldatensätze anzuwenden, um zukünftige Ereignisse basierend auf den Daten vorherzusagen Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie Vorhersagemodelle, um Muster in historischen und transaktionalen Daten zu analysieren Verwenden Sie Predictive Modeling, um Risiken und Chancen zu identifizieren Erstellen Sie mathematische Modelle, die wichtige Trends erfassen Verwenden Sie Daten von Geräten und Geschäftssystemen, um Verschwendung zu reduzieren, Zeit zu sparen oder Kosten zu senken Publikum Entwickler Ingenieure Domain-Experten Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
7 hours
Überblick
Dieses Live-Training (vor Ort oder per Fernzugriff) richtet sich an technische Personen, die lernen möchten, wie eine Strategie für maschinelles Lernen implementiert und gleichzeitig die Nutzung von Big Data maximiert wird.

Am Ende dieser Schulung werden die Teilnehmer:

- Verstehen Sie die Entwicklung und Trends des maschinellen Lernens.
- Wissen, wie maschinelles Lernen branchenübergreifend eingesetzt wird.
- Machen Sie sich mit den Tools, Fähigkeiten und Diensten vertraut, die für die Implementierung von maschinellem Lernen in einer Organisation verfügbar sind.
- Verstehen Sie, wie maschinelles Lernen zur Verbesserung von Data Mining und Analyse eingesetzt werden kann.
- Erfahren Sie, was ein Data Middle Backend ist und wie es von Unternehmen verwendet wird.
- Verstehen Sie, welche Rolle Big Data und intelligente Anwendungen branchenübergreifend spielen.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 hours
Überblick
Teradata is a popular Relational Database Management System for building large scale data warehousing applications. Teradata achieves this by way of parallelism.

This instructor-led, live training (onsite or remote) is aimed at application developers and engineers who wish to master more sophisticated usages of the Teradata database.

By the end of this training, participants will be able to:

- Manage Teradata space.
- Protect and distribute data in Teradata.
- Read Explain Plan.
- Improve SQL proficiency.
- Use main utilities of Teradata.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
7 hours
Überblick
Spark SQL ist das Modul von Apache Spark zum Arbeiten mit strukturierten und unstrukturierten Daten. Spark SQL bietet Informationen zur Struktur der Daten sowie zur ausgeführten Berechnung. Mit diesen Informationen können Optimierungen durchgeführt werden. Zwei häufige Verwendungen von Spark SQL sind:
- um SQL Abfragen auszuführen.
- um Daten aus einer vorhandenen Hive Installation zu lesen.

In diesem vom Kursleiter durchgeführten Live-Training (vor Ort oder remote) lernen die Teilnehmer, wie verschiedene Arten von Datensätzen mit Spark SQL analysiert werden.

Am Ende dieser Schulung können die Teilnehmer:

- Installieren und konfigurieren Sie Spark SQL .
- Führen Sie eine Datenanalyse mit Spark SQL .
- Abfragen von Datensätzen in verschiedenen Formaten.
- Daten visualisieren und Ergebnisse abfragen.

Format des Kurses

- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.

Anpassungsoptionen für den Kurs

- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
14 hours
Überblick
Apache Zeppelin ist ein webbasiertes Notebook zum Erfassen, Erkunden, Visualisieren und Teilen von Hadoop- und Spark-basierten Daten Dieses instruierte Live-Training stellt die Konzepte hinter der interaktiven Datenanalyse vor und führt die Teilnehmer durch die Bereitstellung und Nutzung von Zeppelin in einer Singleuser- oder Multiuser-Umgebung Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Installieren und konfigurieren Sie Zeppelin Entwickeln, organisieren, ausführen und teilen Sie Daten in einer browserbasierten Oberfläche Visualisieren Sie Ergebnisse, ohne auf die Befehlszeilen- oder Clusterdetails Bezug zu nehmen Führen Sie lange Workflows aus und arbeiten Sie mit ihnen zusammen Arbeiten Sie mit einer Reihe von Sprach- / Datenverarbeitungsbackbacks für Plugins wie Scala (mit Apache Spark), Python (mit Apache Spark), Spark SQL, JDBC, Markdown und Shell Integrieren Sie Zeppelin mit Spark, Flink und Map Reduce Sichere Multiuser-Instanzen von Zeppelin mit Apache Shiro Publikum Dateningenieure Datenanalytiker Datenwissenschaftler Softwareentwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Überblick
Vespa eine Open-Source-Big-Data-Verarbeitung und Serving-Engine von Yahoo erstellt Es wird verwendet, um auf Benutzeranfragen zu reagieren, Empfehlungen zu geben und personalisierte Inhalte und Werbung in Echtzeit bereitzustellen Dieses instruktorierte Live-Training stellt die Herausforderungen dar, mit denen große Datenmengen bereitgestellt werden, und führt die Teilnehmer durch die Erstellung einer Anwendung, die Antworten auf Benutzeranforderungen über große Datensätze in Echtzeit berechnen kann Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Verwenden Sie Vespa, um schnell Daten zu berechnen (speichern, suchen, sortieren, organisieren), während der Benutzer wartet Implementieren Sie Vespa in bestehende Anwendungen mit Feature-Suche, Empfehlungen und Personalisierung Integrieren und implementieren Sie Vespa mit bestehenden Big-Data-Systemen wie Hadoop und Storm Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
14 hours
Überblick
Tigon ist ein Open-Source-, Echtzeit-, Low-Latency-, High-Throughput-, natives YARN-, Stream-Processing-Framework, das auf HDFS und HBase für Persistenz sitzt Tigon-Anwendungen adressieren Anwendungsfälle wie Erkennung und Analyse von Netzwerkangriffen, Social-Media-Marktanalysen, Standortanalysen und Echtzeitempfehlungen für Benutzer In diesem instruierten Live-Training wird der Ansatz von Tigon zur Mischung von Echtzeit- und Batchverarbeitung vorgestellt, während die Teilnehmer durch die Erstellung einer Beispielanwendung geführt werden Am Ende dieses Trainings werden die Teilnehmer in der Lage sein: Erstellen Sie leistungsfähige Stream-Processing-Anwendungen für die Verarbeitung großer Datenmengen Verarbeiten Sie Stream-Quellen wie Twitter- und Webserver-Logs Verwenden Sie Tigon zum schnellen Verbinden, Filtern und Aggregieren von Streams Publikum Entwickler Format des Kurses Teilvorlesung, Teildiskussion, Übungen und schwere Handsonsübungen .
21 hours
Überblick
Teradata ist eine der beliebtesten Relational Database Management - Systems. Es ist hauptsächlich zum Erstellen von Data Warehousing-Anwendungen in großem Maßstab geeignet. Teradata erreicht dies durch das Konzept der Parallelität.

Dieser Kurs führt die Delegierten in Teradata .
Big Data Schulung, Big Data boot camp, Big Data Abendkurse, Big Data Wochenendkurse, Big Data Kurs, Big Data Training, Big Data Seminar, Big Data Seminare, Big Data Privatkurs, Big Data Coaching, Big Data Lehrer

Sonderangebote

Sonderangebote Newsletter

Wir behandeln Ihre Daten vertraulich und werden sie nicht an Dritte weitergeben.
Sie können Ihre Einstellungen jederzeit ändern oder sich ganz abmelden.

EINIGE UNSERER KUNDEN

is growing fast!

We are looking to expand our presence in Austria!

As a Business Development Manager you will:

  • expand business in Austria
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!