Schulungsübersicht

TAG 1 – KÜNSTLICHE NEURONALE NETZWERKE

Einführung und ANN-Struktur.

    Biologische Neuronen und künstliche Neuronen. Modell eines ANN. In ANNs verwendete Aktivierungsfunktionen. Typische Klassen von Netzwerkarchitekturen.

Mathematical Grundlagen und Lernmechanismen.

    Erneuter Blick auf die Vektor- und Matrixalgebra. Zustandsraumkonzepte. Konzepte der Optimierung. Fehlerkorrekturlernen. Gedächtnisbasiertes Lernen. Hebräisches Lernen. Wettbewerbsfähiges Lernen.

Einschichtige Perzeptrone.

    Struktur und Lernen von Perzeptronen. Musterklassifikator – Einführung und Bayes-Klassifikatoren. Perzeptron als Musterklassifikator. Perzeptron-Konvergenz. Einschränkungen eines Perzeptrons.

Feedforward-ANN.

    Strukturen mehrschichtiger Feedforward-Netzwerke. Back-Propagation-Algorithmus. Rückausbreitung – Training und Konvergenz. Funktionelle Näherung mit Rückpropagation. Praktische und gestalterische Fragen des Backpropagation-Lernens.

Radiale Basisfunktionsnetzwerke.

    Mustertrennbarkeit und Interpolation. Regularisierungstheorie. Regularisierung und RBF-Netzwerke. RBF-Netzwerkdesign und -Schulung. Näherungseigenschaften von RBF.

Wettbewerbsfähiges Lernen und selbstorganisierende KNN.

    Allgemeine Clustering-Verfahren. Lernvektorquantisierung (LVQ). Wettbewerbsfähige Lernalgorithmen und -architekturen. Selbstorganisierende Feature-Maps. Eigenschaften von Feature-Maps.

Unscharf Neural Networks.

    Neuro-Fuzzy-Systeme. Hintergrund von Fuzzy-Sets und Logik. Design von Fuzzy-Stielen. Design von Fuzzy-ANNs.

Anwendungen

    Es werden einige Beispiele für Anwendungen neuronaler Netze sowie deren Vorteile und Probleme besprochen.

TAG -2 MASCHINELLES LERNEN

    Das PAC Learning Framework Garantien für endliche Hypothesensätze – konsistenter Fall Garantien für endliche Hypothesensätze – inkonsistenter Fall Allgemeines Deterministischer Lebenslauf. Stochastische Szenarien Bayes-Fehlerrauschen Schätz- und Approximationsfehler Modellauswahl
Radmeacher-Komplexität und VC – DimensionBias – Varianz-Kompromiss
  • Regulierung
  • Überanpassung
  • Validierung
  • Support-Vektor-Maschinen
  • Kriging (Gaußsche Prozessregression)
  • PCA und Kernel-PCA
  • Selbstorganisationskarten (SOM)
  • Kernel-induzierter Vektorraum Mercer-Kernel und Kernel-induzierte Ähnlichkeitsmetriken
  • Reinforcement Learning
  • TAG 3 – TIEFES LERNEN
  • Dies wird in Bezug auf die an Tag 1 und Tag 2 behandelten Themen vermittelt
  • Logistische und Softmax-Regression Sparse-Autoencoder Vektorisierung, PCA und Whitening Autodidaktisches Lernen Tiefe Netzwerke Lineare Decoder Faltung und Pooling Sparse-Codierung Unabhängige Komponentenanalyse Kanonische Korrelationsanalyse Demos und Anwendungen
  • Voraussetzungen

    Gute Kenntnisse in Mathematik.

    Good Verständnis der grundlegenden Statistik.

    Grundlegende Programmierkenntnisse sind nicht erforderlich, werden aber empfohlen.

      21 Stunden
     

    Teilnehmerzahl


    Beginnt

    Endet


    Die Termine sind abhängig von der Verfügbarkeit und finden zwischen 09:30 und 16:30 statt.
    Offene Schulungskurse erfordern mindestens 5 Teilnehmer.

    Erfahrungsberichte (2)

    Kombinierte Kurse

    Verwandte Kategorien