Schulungsübersicht

Detaillierter Trainingsplan

  1. Einführung in die NLP
    • NLP verstehen
    • NLP-Frameworks
    • Kommerzielle Anwendungen der NLP
    • Daten aus dem Web scrapen
    • Mit verschiedenen APIs arbeiten, um Textdaten abzurufen
    • Arbeiten und Speichern von Textkorpora: Inhalt und relevante Metadaten speichern
    • Vorteile der Verwendung von Python und NLTK Crash Course
  2. Praktisches Verständnis für Korpus und Datensatz
    • Warum brauchen wir ein Korpus?
    • Korpusanalyse
    • Arten von Datenattributen
    • Verschiedene Dateiformate für Korpora
    • Einen Datensatz für NLP-Anwendungen vorbereiten
  3. Aufbau einer Satzstruktur verstehen
    • Komponenten der NLP
    • Natürliche Sprachverarbeitung
    • Morphologische Analyse: Stamm, Wort, Token, Sprachtags
    • Syntaxanalyse
    • Semantikanalyse
    • Ambiguität behandeln
  4. Vorverarbeitung von Textdaten
    • Korpus - Rohes Text
      • Satztokenisierung
      • Stemming für rohen Text
      • Lemmatisierung von rohem Text
      • Stopwortentfernung
    • Korpus - Rohe Sätze
      • Worttokenisierung
      • Wortlemmatisierung
    • Mit Term-Dokument/Document-Term-Matrizen arbeiten
    • Texttokenisierung in n-Gramme und Sätze
    • Praktische und maßgeschneiderte Vorverarbeitung
  5. Textdaten analysieren
    • Grundlegende Funktionen der NLP
      • Parsers und Parsing
      • POS-Tagging und Tagger
      • Name Entity Recognition
      • N-Gramme
      • Bag of Words
    • Statistische Merkmale der NLP
      • Konzepte der linearen Algebra für NLP
      • Wahrscheinlichkeitstheorie für NLP
      • TF-IDF
      • Vektorisierung
      • Encoders und Decoders
      • Normalisierung
      • Wahrscheinlichkeitsmodelle
    • Fortgeschrittene Feature Engineering und NLP
      • Grundlagen von word2vec
      • Komponenten des word2vec-Modells
      • Logik des word2vec-Modells
      • Erweiterung des word2vec-Konzepts
      • Anwendung des word2vec-Modells
    • Fallstudie: Anwendung von Bag of Words: Automatische Textzusammenfassung mit vereinfachten und echten Luhn-Algorithmen
  6. Dokumentclustering, -klassifizierung und Themenmodellierung
    • Dokumentclustering und Mustererkennung (hierarchisches Clustering, k-Means-Clustering usw.)
    • Documents vergleichen und klassifizieren mit TFIDF, Jaccard- und Cosinus-Distanzmaßen
    • Dokumentklassifizierung mit Naïve Bayes und Maximum Entropy
  7. Wichtige Textelemente identifizieren
    • Dimensionalitätsreduktion: Hauptkomponentenanalyse, Singulärwertzerlegung, nicht-negative Matrixfaktorisierung
    • Themenmodellierung und Informationsabruf mit Latent Semantic Analysis
  8. Entitätsextraktion, Sentimentanalyse und fortgeschrittene Themenmodellierung
    • Positiv vs. negativ: Grad der Stimmung
    • Item Response Theory
    • Part of speech tagging und seine Anwendung: Erkennen von Personen, Orten und Organisationen in Texten
    • Fortgeschrittene Themenmodellierung: Latent Dirichlet Allocation
  9. Fallstudien
    • Minieren unstrukturierter Benutzerbewertungen
    • Sentimentklassifizierung und Visualisierung von Produktschreibbewertungsdaten
    • Minieren von Suchprotokollen für Nutzungsmuster
    • Textklassifizierung
    • Themenmodellierung

Voraussetzungen

Wissen und Bewusstsein der Grundprinzipien der NLP sowie ein Verständnis für die Anwendung von KI in Unternehmen

 21 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Erfahrungsberichte (1)

Kommende Kurse

Verwandte Kategorien