Schulungsübersicht

Einführung

Dieser Abschnitt bietet eine allgemeine Einführung in die Frage, wann maschinelles Lernen eingesetzt werden sollte, was dabei zu beachten ist und was dies alles bedeutet, einschließlich der Vor- und Nachteile. Datentypen (strukturiert/unstrukturiert/statisch/gestreamt), Datenvalidität/-volumen, datengesteuerte vs. nutzergesteuerte Analysen, statistische Modelle vs. Modelle des maschinellen Lernens/ Herausforderungen des unüberwachten Lernens, Bias-Varianz-Kompromiss, Iteration/Evaluierung, Kreuzvalidierungsansätze, überwacht/unüberwacht/Verstärkung.

HAUPTTHEMEN.

1. Verständnis von Naive Bayes

  • Basisbegriffe der bayesianischen Methoden
  • Wahrscheinlichkeit
  • Kombinierte Wahrscheinlichkeit
  • Bedingte Wahrscheinlichkeit mit dem Satz von Bayes
  • Der Naive-Bayes-Algorithmus
  • Die naive Bayes-Klassifizierung
  • Der Laplace-Schätzer
  • Nutzung numerischer Merkmale bei Naive Bayes

2. Verständnis von Entscheidungsbäumen

  • Trennen und Erobern
  • Der C5.0-Entscheidungsbaumalgorithmus
  • Auswahl der besten Teilung
  • Beschränken des Entscheidungsbaums

3. Neuronale Netze verstehen

  • Von biologischen zu künstlichen Neuronen
  • Aktivierungsfunktionen
  • Netztopologie
  • Anzahl der Schichten
  • Richtung des Informationsflusses
  • Anzahl der Knoten in jeder Schicht
  • Ausbildung von neuronalen Netzen mit Rückwärtsverbreitung
  • Deep Learning

4. Verstehen von Support-Vektor-Maschinen

  • Klassifizierung mit Hyperebenen
  • Aufspüren des größten Abstands (Margin)
  • Fall linear separabler Daten
  • Fall nicht-linear separabler Daten
  • Nutzung von Kernen für nicht-lineare Räume

5. Clustering verstehen

  • Clustering als maschinelles Lerneprozess
  • Der k-Means-Algorithmus für Clustering
  • Nutzung von Distanzen zur Zuweisung und Aktualisierung von Clustern
  • Auswahl der passenden Anzahl von Clustern

6. Leistungsmessung für die Klassifizierung

  • Arbeiten mit Vorherschendaten in der Klassifikation
  • Einen genauen Blick auf Verwirrungsmatrizen werfen
  • Nutzung von Verwirrungsmatrizen zur Leistungsbeurteilung
  • Jenseits der Genauigkeit – andere Leistungsmessungen
  • Die Kappa-Statistik
  • Sensitivität und Spezifität
  • Precision und Recall
  • Das F-Maß
  • Visualisierung von Leistungsabwägungen
  • ROC-Kurven
  • Abschätzung zukünftiger Leistung
  • Die Holdout-Methode
  • Kreuzvalidierung
  • Bootstrap Sampling

7. Tuning von Serienmodellen für bessere Leistung

  • Nutzung von caret für automatisches Parameter-Tuning
  • Erstellen eines einfachen getunten Modells
  • Anpassung des Tuning-Prozesses
  • Verschärfung der Modellleistung durch Meta-Lernen
  • Verständnis von Ensembles
  • Bagging
  • Boosting
  • Zufallswälder
  • Ausbildung von Zufallswäldern
  • Bewertung der Leistung von Zufallswäldern

KLEINERE THEMEN

8. Verständnis der Klassifizierung mit Hilfe der nächsten Nachbarn

  • Der kNN-Algorithmus
  • Berechnung von Distanzen
  • Auswahl einer passenden k
  • Vorbereitung der Daten für die Nutzung mit kNN
  • Warum ist der kNN-Algorithmus faul?

9. Verständnis der Klassifizierungsregeln

  • Trennen und erobern
  • Der One Rule Algorithmus
  • Der RIPPER-Algorithmus
  • Regeln aus Entscheidungsbäumen

10. Verständnis der Regression

  • Einfache lineare Regression
  • Ordinäre kleinste Quadrate-Schätzung
  • Korrelationen
  • Mehrere lineare Regressionen

11. Verständnis von Regressions- und Modellbäumen

  • Hinzufügen der Regression zu Bäumen

12. Verstehen von Assoziationsregeln

  • Der Apriori-Algorithmus für die Lernprozesse von Assoziationsregeln
  • Messung der Regelinteresse – Unterstützung und Zuverlässigkeit
  • Aufbau einer Regelmenge mit dem Prinzip des Apriori

Extras

  • Spark/PySpark/MLlib und Multi-Armed Bandits

Voraussetzungen

Python Kenntnisse

 21 Stunden

Teilnehmerzahl


Price per participant (excl. VAT)

Erfahrungsberichte (7)

Kommende Kurse

Verwandte Kategorien