Schulungsübersicht

Einführung

  • Künstliche neuronale Netze im Vergleich zu Entscheidungsbaum-basierten Algorithmen

Überblick über die XGBoost-Merkmale

  • Elements eines Gradient-Boosting-Algorithmus
  • Schwerpunkt auf Berechnungsgeschwindigkeit und Modellleistung
  • XGBoost vs. Logistische Regression, Random Forest und Standard Gradient Boosting

Die Entwicklung der baumbasierten Algorithmen

  • Entscheidungsbäume, Bagging, Random Forest, Boosting, Gradient Boosting
  • Optimierung des Systems
  • Algorithmische Weiterentwicklungen

Vorbereiten der Umgebung

  • Installieren von SciPy und scikit-learn

Erstellen eines XGBoost-Modells

  • Herunterladen eines Datensatzes
  • Lösen eines allgemeinen Klassifikationsproblems
  • Trainieren des XGBoost-Modells für die Klassifizierung
  • Lösen einer allgemeinen Regressionsaufgabe

Leistung überwachen

  • Bewerten und Berichten der Leistung
  • Frühzeitiges Anhalten

Plotten von Features nach Wichtigkeit

  • Berechnen der Merkmalsbedeutung
  • Entscheiden, welche Eingabevariablen beibehalten oder verworfen werden sollen

Konfigurieren von Gradient Boosting

  • Überprüfung der Lernkurven auf Trainings- und Validierungsdatensätzen
  • Anpassen der Lernrate
  • Anpassen der Anzahl von Bäumen

Abstimmung der Hyperparameter

  • Verbessern der Leistung eines XGBoost-Modells
  • Entwurf eines kontrollierten Experiments zur Abstimmung von Hyperparametern
  • Suche nach Kombinationen von Parametern

Erstellen einer Pipeline

  • Einbindung eines XGBoost-Modells in eine End-to-End-Pipeline für maschinelles Lernen
  • Abstimmung von Hyperparametern innerhalb der Pipeline
  • Fortgeschrittene Preprocessing-Techniken

Fehlersuche

Zusammenfassung und Schlussfolgerung

Voraussetzungen

  • Erfahrung im Schreiben von Modellen für maschinelles Lernen

Zielgruppe

  • Datenwissenschaftler
  • Ingenieure für maschinelles Lernen
 14 Stunden

Teilnehmerzahl


Price per participant (excl. VAT)

Kommende Kurse

Verwandte Kategorien