Schulungsübersicht

Einführung in die End-to-End-Analyse mit Microsoft Fabric

  • Überblick über Microsoft Fabric
  • Grundlegendes zur Lakehouse-Architektur
  • End-to-End-Analyseprozess

Erste Schritte mit Lakehouses in Microsoft Fabric

  • Kernfunktionen und -fähigkeiten von Lakehouses
  • Erstellen und Konfigurieren eines Lakehouse
  • Datenimport in Lakehousetabellen

Verwenden von Apache Spark in Microsoft Fabric

  • Konfigurieren von Apache Spark in Microsoft Fabric
  • Ausnutzen von Spark für verteilte Datenverarbeitung
  • Analysieren und Transformieren von Daten mit Spark DataFrames

Arbeiten mit Delta Lake Tabellen in Microsoft Fabric

  • Einführung in Delta Lake und Delta-Tabellen
  • Verwaltung und Versionierung von Daten mit Delta Tabellen
  • Implementieren von Datentransformationen und Abfragen

Datenimport mit Dataflows Gen2 in Microsoft Fabric

  • Fähigkeiten von Dataflows Gen2
  • Konzeptionieren von Dataflow-Lösungen für Datenimport
  • Integrieren von Dataflows in Datendurchläufe

Verwenden von Data Factory-Pipelines in Microsoft Fabric

  • Überblick über Data Factory-Pipelines
  • Erstellen und Orchestrieren von Datendurchläufen
  • Automatisieren der Datenbewegung und -transformation

Zusammenfassung und Nächste Schritte

Voraussetzungen

  • Ein Verständnis der Prinzipien der Datenverwaltung
  • Erfahrung mit SQL Datenbanken
  • Grundlegendes Wissen über Cloud-Computing-Konzepte

Zielgruppe

  • Dateningenieure
  • Database-Administratoren
  • Datenanalysten
 21 Stunden

Teilnehmerzahl


Price per participant (excl. VAT)

Kommende Kurse

Verwandte Kategorien