Vielen Dank für die Zusendung Ihrer Anfrage! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Vielen Dank, dass Sie Ihre Buchung abgeschickt haben! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Schulungsübersicht
Algorithmen des maschinellen Lernens in Julia
Einführende Konzepte
-
Überwachtes & unüberwachtes Lernen
Kreuzvalidierung und Modellauswahl
Kompromiss zwischen Verzerrung und Varianz
Linear & logistische Regression
(NaiveBayes & GLM)
-
Einführende Konzepte
Anpassen von linearen Regressionsmodellen
Modell-Diagnose
Naive Bayes
Anpassung eines logistischen Regressionsmodells
Modell-Disgnostik
Methoden der Modellauswahl
Entfernungen
-
Was ist eine Entfernung?
Euklidisch
Stadtblock
Kosinus
Korrelation
Mahalanobis
Hamming
MAD
RMS
Mittlere quadratische Abweichung
Reduzierung der Dimensionalität
-
Hauptkomponentenanalyse (PCA)
Lineare PCA
Kernel PCA
Probabilistische PCA
Unabhängige CA
Grundlegende Konzepte der Regularisierung Ridge-Regression Lasso-Regression Hauptkomponentenregression (PCR)
-
Clustering
K-means K-medoids DBSCAN Hierarchisches Clustering Markov-Cluster-Algorithmus Fuzzy C-means Clustering
-
Standardmodelle für maschinelles Lernen
(NearestNeighbors, DecisionTree, LightGBM, XGBoost, EvoTrees, LIBSVM-Pakete)
Gradient-Boosting-Konzepte K nächste Nachbarn (KNN) Entscheidungsbaum-Modelle Random-Forest-Modelle XGboost EvoTrees Support-Vektor-Maschinen (SVM)
-
Künstliche neuronale Netze
(Streaming-Paket)
Stochastischer Gradientenabstieg & Strategien Mehrschichtige Perzeptrons vorwärts & Rückwärtspropagation Regularisierung Neuronale Netze mit Wiederholung (RNN) Faltungsneuronale Netze (Convnets) Autokodierer Hyperparameter
Voraussetzungen
Dieser Kurs richtet sich an Personen, die bereits einen Hintergrund in Datenwissenschaft und Statistik haben.
21 Stunden