Schulungsübersicht

Einführung

  • Apache Spark vs Hadoop MapReduce

Überblick über die Funktionen und Architektur von Apache Spark

Auswahl der Programmiersprache

Aufbau von Apache Spark

Erstellen einer Beispielanwendung

Auswählen des Datensatzes

Durchführen der Datenanalyse auf den Daten

Verarbeiten strukturierter Daten mit Spark SQL

Verarbeiten von Streaming-Daten mit Spark Streaming

Integrieren von Apache Spark in Drittanbieter-Maschinelles-Lernen-Tools

Verwenden von Apache Spark für Graphverarbeitung

Optimieren von Apache Spark

Fehlerbehebung

Zusammenfassung und Fazit

Voraussetzungen

  • Erfahrung mit der Linux-Befehlszeile
  • Allgemeine Kenntnisse in Datenverarbeitung
  • Programmiererfahrung mit Java, Scala, Python oder R

Zielgruppe

  • Entwickler
 21 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Erfahrungsberichte (5)

Kommende Kurse

Verwandte Kategorien