Schulungsübersicht

Einführung

Dieser Abschnitt bietet eine allgemeine Einführung in die Frage, wann maschinelles Lernen eingesetzt werden sollte, was dabei zu beachten ist und was dies alles bedeutet, einschließlich der Vor- und Nachteile. Datentypen (strukturiert/unstrukturiert/statisch/gestreamt), Datenvalidität/-volumen, datengesteuerte vs. nutzergesteuerte Analysen, statistische Modelle vs. Modelle des maschinellen Lernens/ Herausforderungen des unüberwachten Lernens, Bias-Varianz-Kompromiss, Iteration/Evaluierung, Kreuzvalidierungsansätze, überwacht/unüberwacht/Verstärkung.

HAUPTTHEMEN.

1. Verständnis von Naive Bayes

  • Grundlegende Konzepte der Bayes'schen Methoden
  • Wahrscheinlichkeit
  • Gemeinsame Wahrscheinlichkeit
  • Bedingte Wahrscheinlichkeit mit Bayes' Theorem
  • Der naive Bayes-Algorithmus
  • Die naive Bayes-Klassifikation
  • Der Laplace-Schätzer
  • Verwendung numerischer Merkmale mit Naive Bayes

2. Verständnis von Entscheidungsbäumen

  • Aufteilen und erobern
  • Der C5.0 Entscheidungsbaum-Algorithmus
  • Auswahl der besten Aufteilung
  • Beschneiden des Entscheidungsbaums

3. Neuronale Netze verstehen

  • Von biologischen zu künstlichen Neuronen
  • Aktivierungsfunktionen
  • Topologie des Netzwerks
  • Die Anzahl der Schichten
  • Die Richtung der Informationsübertragung
  • Die Anzahl der Knoten in jeder Schicht
  • Training neuronaler Netze mit Backpropagation
  • Deep Learning

4. Verstehen von Support-Vektor-Maschinen

  • Klassifizierung mit Hyperebenen
  • Suche nach dem maximalen Spielraum
  • Der Fall von linear trennbaren Daten
  • Der Fall von nicht linear trennbaren Daten
  • Verwendung von Kerneln für nichtlineare Räume

5. Clustering verstehen

  • Clustering als Aufgabe des maschinellen Lernens
  • Der k-means-Algorithmus für Clustering
  • Verwendung der Distanz zur Zuweisung und Aktualisierung von Clustern
  • Auswahl der geeigneten Anzahl von Clustern

6. Leistungsmessung für die Klassifizierung

  • Arbeiten mit Klassifikationsvorhersagedaten
  • Ein genauerer Blick auf Konfusionsmatrizen
  • Verwendung von Konfusionsmatrizen zur Leistungsmessung
  • Über die Genauigkeit hinaus – andere Maßstäbe für die Leistung
  • Die Kappa-Statistik
  • Sensitivität und Spezifität
  • Präzision und Wiedererkennung
  • Das F-Maß
  • Visualisierung von Leistungsabwägungen
  • ROC-Kurven
  • Schätzung der zukünftigen Leistung
  • Die Holdout-Methode
  • Kreuzvalidierung
  • Bootstrap Stichproben

7. Tuning von Serienmodellen für bessere Leistung

  • Verwendung von caret für die automatische Parameterabstimmung
  • Erstellen eines einfachen abgestimmten Modells
  • Anpassen des Abstimmungsprozesses
  • Verbessern der Modellleistung mit Meta-Lernen
  • Verstehen von Ensembles
  • Bagging
  • Boosten
  • Zufällige Wälder
  • Training von Random Forests
  • Bewertung der Leistung von Random Forests

KLEINERE THEMEN

8. Verständnis der Klassifizierung mit Hilfe der nächsten Nachbarn

  • Der kNN-Algorithmus
  • Berechnung des Abstands
  • Auswählen eines geeigneten k
  • Daten für die Verwendung mit kNN vorbereiten
  • Warum ist der kNN-Algorithmus träge?

9. Verständnis der Klassifizierungsregeln

  • Trennen und erobern
  • Der Ein-Regel-Algorithmus
  • Der RIPPER-Algorithmus
  • Regeln aus Entscheidungsbäumen

10. Verständnis der Regression

  • Einfache lineare Regression
  • Gewöhnliche Kleinste-Quadrate-Schätzung
  • Korrelationen
  • Mehrfache lineare Regression

11. Verständnis von Regressions- und Modellbäumen

  • Hinzufügen von Regression zu Bäumen

12. Verstehen von Assoziationsregeln

  • Der Apriori-Algorithmus für das Lernen von Assoziationsregeln
  • Messung von Regelinteresse – Unterstützung und Vertrauen
  • Aufbau eines Regelsatzes nach dem Apriori-Prinzip

Extras

  • Spark/PySpark/MLlib und mehrarmige Banditen
  21 Stunden
 

Teilnehmerzahl


Beginnt

Endet


Die Termine sind abhängig von der Verfügbarkeit und finden zwischen 09:30 und 16:30 statt.
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.

Erfahrungsberichte (5)

Kombinierte Kurse

Verwandte Kategorien