Schulungsübersicht

Einführung

Dieser Abschnitt bietet eine allgemeine Einführung in die Frage, wann maschinelles Lernen eingesetzt werden sollte, was dabei zu beachten ist und was dies alles bedeutet, einschließlich der Vor- und Nachteile. Datentypen (strukturiert/unstrukturiert/statisch/gestreamt), Datenvalidität/-volumen, datengesteuerte vs. nutzergesteuerte Analysen, statistische Modelle vs. Modelle des maschinellen Lernens/ Herausforderungen des unüberwachten Lernens, Bias-Varianz-Kompromiss, Iteration/Evaluierung, Kreuzvalidierungsansätze, überwacht/unüberwacht/Verstärkung.

HAUPTTHEMEN.

1. Verständnis von Naive Bayes

  • Grundlegende Konzepte der Bayes'schen Methoden
  • Wahrscheinlichkeit
  • Gemeinsame Wahrscheinlichkeit
  • Bedingte Wahrscheinlichkeit mit Bayes' Theorem
  • Der naive Bayes-Algorithmus
  • Die naive Bayes-Klassifikation
  • Der Laplace-Schätzer
  • Verwendung numerischer Merkmale mit Naive Bayes

2. Verständnis von Entscheidungsbäumen

  • Aufteilen und erobern
  • Der C5.0 Entscheidungsbaum-Algorithmus
  • Auswahl der besten Aufteilung
  • Beschneiden des Entscheidungsbaums

3. Neuronale Netze verstehen

  • Von biologischen zu künstlichen Neuronen
  • Aktivierungsfunktionen
  • Topologie des Netzwerks
  • Die Anzahl der Schichten
  • Die Richtung der Informationsübertragung
  • Die Anzahl der Knoten in jeder Schicht
  • Training neuronaler Netze mit Backpropagation
  • Deep Learning

4. Verstehen von Support-Vektor-Maschinen

  • Klassifizierung mit Hyperebenen
  • Suche nach dem maximalen Spielraum
  • Der Fall von linear trennbaren Daten
  • Der Fall von nicht linear trennbaren Daten
  • Verwendung von Kerneln für nichtlineare Räume

5. Clustering verstehen

  • Clustering als Aufgabe des maschinellen Lernens
  • Der k-means-Algorithmus für Clustering
  • Verwendung der Distanz zur Zuweisung und Aktualisierung von Clustern
  • Auswahl der geeigneten Anzahl von Clustern

6. Leistungsmessung für die Klassifizierung

  • Arbeiten mit Klassifikationsvorhersagedaten
  • Ein genauerer Blick auf Konfusionsmatrizen
  • Verwendung von Konfusionsmatrizen zur Leistungsmessung
  • Über die Genauigkeit hinaus – andere Maßstäbe für die Leistung
  • Die Kappa-Statistik
  • Sensitivität und Spezifität
  • Präzision und Wiedererkennung
  • Das F-Maß
  • Visualisierung von Leistungsabwägungen
  • ROC-Kurven
  • Schätzung der zukünftigen Leistung
  • Die Holdout-Methode
  • Kreuzvalidierung
  • Bootstrap Stichproben

7. Tuning von Serienmodellen für bessere Leistung

  • Verwendung von caret für die automatische Parameterabstimmung
  • Erstellen eines einfachen abgestimmten Modells
  • Anpassen des Abstimmungsprozesses
  • Verbessern der Modellleistung mit Meta-Lernen
  • Verstehen von Ensembles
  • Bagging
  • Boosten
  • Zufällige Wälder
  • Training von Random Forests
  • Bewertung der Leistung von Random Forests

KLEINERE THEMEN

8. Verständnis der Klassifizierung mit Hilfe der nächsten Nachbarn

  • Der kNN-Algorithmus
  • Berechnung des Abstands
  • Auswählen eines geeigneten k
  • Daten für die Verwendung mit kNN vorbereiten
  • Warum ist der kNN-Algorithmus träge?

9. Verständnis der Klassifizierungsregeln

  • Trennen und erobern
  • Der Ein-Regel-Algorithmus
  • Der RIPPER-Algorithmus
  • Regeln aus Entscheidungsbäumen

10. Verständnis der Regression

  • Einfache lineare Regression
  • Gewöhnliche Kleinste-Quadrate-Schätzung
  • Korrelationen
  • Mehrfache lineare Regression

11. Verständnis von Regressions- und Modellbäumen

  • Hinzufügen von Regression zu Bäumen

12. Verstehen von Assoziationsregeln

  • Der Apriori-Algorithmus für das Lernen von Assoziationsregeln
  • Messung von Regelinteresse – Unterstützung und Vertrauen
  • Aufbau eines Regelsatzes nach dem Apriori-Prinzip

Extras

  • Spark/PySpark/MLlib und mehrarmige Banditen
 21 Stunden

Teilnehmerzahl



Preis je Teilnehmer

Erfahrungsberichte (5)

Kombinierte Kurse

H2O AutoML

14 Stunden

AutoML with Auto-sklearn

14 Stunden

AutoML with Auto-Keras

14 Stunden

Advanced Stable Diffusion: Deep Learning for Text-to-Image Generation

21 Stunden

Introduction to Stable Diffusion for Text-to-Image Generation

21 Stunden

AlphaFold

7 Stunden

TensorFlow Lite for Embedded Linux

21 Stunden

TensorFlow Lite for Android

21 Stunden

TensorFlow Lite for iOS

21 Stunden

Tensorflow Lite for Microcontrollers

21 Stunden

Deep Learning Neural Networks with Chainer

14 Stunden

Distributed Deep Learning with Horovod

7 Stunden

Accelerating Deep Learning with FPGA and OpenVINO

35 Stunden

Building Deep Learning Models with Apache MXNet

21 Stunden

Deep Learning with Keras

21 Stunden

Verwandte Kategorien

1