Schulungsübersicht

Algorithmen des maschinellen Lernens in Julia

Einführende Konzepte

    Überwachtes & unüberwachtes Lernen Kreuzvalidierung und Modellauswahl Kompromiss zwischen Verzerrung und Varianz

Linear & logistische Regression

(NaiveBayes & GLM)

    Einführende Konzepte Anpassen von linearen Regressionsmodellen Modell-Diagnose Naive Bayes Anpassung eines logistischen Regressionsmodells Modell-Disgnostik Methoden der Modellauswahl

Entfernungen

    Was ist eine Entfernung? Euklidisch Stadtblock Kosinus Korrelation Mahalanobis Hamming MAD RMS Mittlere quadratische Abweichung

Reduzierung der Dimensionalität

    Hauptkomponentenanalyse (PCA) Lineare PCA Kernel PCA Probabilistische PCA Unabhängige CA
Multidimensionale Skalierung
  • Geänderte Regressionsmethoden
  • Grundlegende Konzepte der Regularisierung Ridge-Regression Lasso-Regression Hauptkomponentenregression (PCR)

      Clustering

    K-means K-medoids DBSCAN Hierarchisches Clustering Markov-Cluster-Algorithmus Fuzzy C-means Clustering

      Standardmodelle für maschinelles Lernen

    (NearestNeighbors, DecisionTree, LightGBM, XGBoost, EvoTrees, LIBSVM-Pakete)

    Gradient-Boosting-Konzepte K nächste Nachbarn (KNN) Entscheidungsbaum-Modelle Random-Forest-Modelle XGboost EvoTrees Support-Vektor-Maschinen (SVM)

      Künstliche neuronale Netze

    (Streaming-Paket)

    Stochastischer Gradientenabstieg & Strategien Mehrschichtige Perzeptrons vorwärts & Rückwärtspropagation Regularisierung Neuronale Netze mit Wiederholung (RNN) Faltungsneuronale Netze (Convnets) Autokodierer Hyperparameter

    Voraussetzungen

    Dieser Kurs richtet sich an Personen, die bereits einen Hintergrund in Datenwissenschaft und Statistik haben.

     21 Stunden

    Teilnehmerzahl



    Preis je Teilnehmer

    Kombinierte Kurse

    Verwandte Kategorien