Schulungsübersicht
Einführung
Dieser Abschnitt bietet eine allgemeine Einführung in die Frage, wann maschinelles Lernen eingesetzt werden sollte, was dabei zu beachten ist und was dies alles bedeutet, einschließlich der Vor- und Nachteile. Datentypen (strukturiert/unstrukturiert/statisch/gestreamt), Datenvalidität/-volumen, datengesteuerte vs. nutzergesteuerte Analysen, statistische Modelle vs. Modelle des maschinellen Lernens/ Herausforderungen des unüberwachten Lernens, Bias-Varianz-Kompromiss, Iteration/Evaluierung, Kreuzvalidierungsansätze, überwacht/unüberwacht/Verstärkung.
HAUPTTHEMEN.
1. Verständnis von Naive Bayes
- Grundlegende Konzepte der Bayes'schen Methoden
- Wahrscheinlichkeit
- Gemeinsame Wahrscheinlichkeit
- Bedingte Wahrscheinlichkeit mit Bayes' Theorem
- Der naive Bayes-Algorithmus
- Die naive Bayes-Klassifikation
- Der Laplace-Schätzer
- Verwendung numerischer Merkmale mit Naive Bayes
2. Verständnis von Entscheidungsbäumen
- Aufteilen und erobern
- Der C5.0 Entscheidungsbaum-Algorithmus
- Auswahl der besten Aufteilung
- Beschneiden des Entscheidungsbaums
3. Neuronale Netze verstehen
- Von biologischen zu künstlichen Neuronen
- Aktivierungsfunktionen
- Topologie des Netzwerks
- Die Anzahl der Schichten
- Die Richtung der Informationsübertragung
- Die Anzahl der Knoten in jeder Schicht
- Training neuronaler Netze mit Backpropagation
- Deep Learning
4. Verstehen von Support-Vektor-Maschinen
- Klassifizierung mit Hyperebenen
- Suche nach dem maximalen Spielraum
- Der Fall von linear trennbaren Daten
- Der Fall von nicht linear trennbaren Daten
- Verwendung von Kerneln für nichtlineare Räume
5. Clustering verstehen
- Clustering als Aufgabe des maschinellen Lernens
- Der k-means-Algorithmus für Clustering
- Verwendung der Distanz zur Zuweisung und Aktualisierung von Clustern
- Auswahl der geeigneten Anzahl von Clustern
6. Leistungsmessung für die Klassifizierung
- Arbeiten mit Klassifikationsvorhersagedaten
- Ein genauerer Blick auf Konfusionsmatrizen
- Verwendung von Konfusionsmatrizen zur Leistungsmessung
- Über die Genauigkeit hinaus – andere Maßstäbe für die Leistung
- Die Kappa-Statistik
- Sensitivität und Spezifität
- Präzision und Wiedererkennung
- Das F-Maß
- Visualisierung von Leistungsabwägungen
- ROC-Kurven
- Schätzung der zukünftigen Leistung
- Die Holdout-Methode
- Kreuzvalidierung
- Bootstrap Stichproben
7. Tuning von Serienmodellen für bessere Leistung
- Verwendung von caret für die automatische Parameterabstimmung
- Erstellen eines einfachen abgestimmten Modells
- Anpassen des Abstimmungsprozesses
- Verbessern der Modellleistung mit Meta-Lernen
- Verstehen von Ensembles
- Bagging
- Boosten
- Zufällige Wälder
- Training von Random Forests
- Bewertung der Leistung von Random Forests
KLEINERE THEMEN
8. Verständnis der Klassifizierung mit Hilfe der nächsten Nachbarn
- Der kNN-Algorithmus
- Berechnung des Abstands
- Auswählen eines geeigneten k
- Daten für die Verwendung mit kNN vorbereiten
- Warum ist der kNN-Algorithmus träge?
9. Verständnis der Klassifizierungsregeln
- Trennen und erobern
- Der Ein-Regel-Algorithmus
- Der RIPPER-Algorithmus
- Regeln aus Entscheidungsbäumen
10. Verständnis der Regression
- Einfache lineare Regression
- Gewöhnliche Kleinste-Quadrate-Schätzung
- Korrelationen
- Mehrfache lineare Regression
11. Verständnis von Regressions- und Modellbäumen
- Hinzufügen von Regression zu Bäumen
12. Verstehen von Assoziationsregeln
- Der Apriori-Algorithmus für das Lernen von Assoziationsregeln
- Messung von Regelinteresse – Unterstützung und Vertrauen
- Aufbau eines Regelsatzes nach dem Apriori-Prinzip
Extras
- Spark/PySpark/MLlib und mehrarmige Banditen
Erfahrungsberichte (5)
Es kurz und einfach halten. Schaffung von Intuition und visuellen Modellen rund um die Konzepte (Entscheidungsbaumdiagramm, lineare Gleichungen, manuelle Berechnung von y_pred, um zu beweisen, wie das Modell funktioniert).
Nicolae - DB Global Technology
Kurs - Machine Learning
Maschinelle Übersetzung
Es hat mir geholfen, mein Ziel, ML zu verstehen, zu erreichen. Großen Respekt an Pablo für die gute Einführung in dieses Thema, denn nach 3 Tagen Training wird klar, wie umfangreich dieses Thema ist. Ich habe auch die Idee der virtuellen Maschinen, die Sie zur Verfügung gestellt haben, sehr genossen, die eine sehr gute Latenzzeit hatten! So konnte jeder Kursteilnehmer in seinem eigenen Tempo experimentieren.
Silviu - DB Global Technology
Kurs - Machine Learning
Maschinelle Übersetzung
Der praktische Teil ist großartig, wenn die theoretischen Inhalte sich in etwas Praktisches verwandeln.
Lisa Fekade - Vodacom
Kurs - Machine Learning
Maschinelle Übersetzung
Es ist großartig, dass alle Materialien einschließlich der Übungen auf derselben Seite sind und dann live aktualisiert werden. Die Lösung wird am Ende enthüllt. Cool! Außerdem schätze ich sehr, dass Krzysztof extra Mühe darauf verwendet hat, unsere Probleme zu verstehen und uns mögliche Techniken vorzuschlagen.
Attila Nagy - L M ERICSSON LIMITED
Kurs - Machine Learning
Maschinelle Übersetzung
Mir haben die Laborübungen gefallen.
Marcell Lorant - L M ERICSSON LIMITED
Kurs - Machine Learning
Maschinelle Übersetzung