Schulungsübersicht

Einführung in QLoRA und Quantisierung

  • Überblick über Quantisierung und ihre Rolle bei der Modelloptimierung
  • Einführung in das QLoRA-Framework und dessen Vorteile
  • Hauptunterschiede zwischen QLoRA und traditionellen Feinabstimmungsmethoden

Grundlagen großer Sprachmodelle (LLMs)

  • Einführung in LLMs und deren Architektur
  • Herausforderungen bei der skalierten Feinabstimmung großer Modelle
  • Wie Quantisierung die berechnungsbezogenen Einschränkungen bei der Feinabstimmung von LLMs überwindet

Implementierung von QLoRA für die Feinabstimmung von LLMs

  • Eingerichtung des QLoRA-Frameworks und der Umgebung
  • Vorbereitung von Datensätzen für die QLoRA-Feinabstimmung
  • Schritt-für-Schritt-Anleitung zur Implementierung von QLoRA auf LLMs mit Python und PyTorch/TensorFlow

Optimierung der Feinabstimmungsleistung mit QLoRA

  • Wie man Modellgenauigkeit und Leistung durch Quantisierung ausgewogen halten kann
  • Techniken zur Reduzierung von Rechenkosten und Speicherverbrauch während der Feinabstimmung
  • Strategien für die Feinabstimmung mit minimalen Hardwareanforderungen

Bewertung feinabgestimmter Modelle

  • Wie man die Effektivität feinabgestimmter Modelle bewertet
  • Gängige Bewertungsmaßstäbe für Sprachmodelle
  • Optimierung der Modellleistung nach der Feinabstimmung und Problembehandlung

Bereitstellung und Skalierung feinabgestimmter Modelle

  • Best Practices zur Bereitstellung von quantisierten LLMs in Produktionsumgebungen
  • Skalierung der Bereitstellung zur Verarbeitung von Echtzeit-Anfragen
  • Tools und Frameworks für die Modellbereitstellung und -überwachung

Anwendungsfälle und Fallstudien in der Praxis

  • Fallstudie: Feinabstimmung von LLMs für Kundendienst- und NLP-Aufgaben
  • Beispiele für die Feinabstimmung von LLMs in verschiedenen Branchen wie Gesundheitswesen, Finanzwesen und E-Commerce
  • Lektionen aus der Praxis der Bereitstellung von QLoRA-basierten Modellen

Zusammenfassung und weitere Schritte

Voraussetzungen

  • Eine Grundverständnis von Machine Learning-Grundlagen und neuronalen Netzen
  • Erfahrung mit dem Feinjustieren (Fine-Tuning) von Modellen und Transfer Learning
  • Vertrautheit mit großen Sprachmodellen (LLMs) und Deep-Learning-Frameworks (z. B., PyTorch, TensorFlow)

Zielgruppe

  • Machine Learning-Ingenieure
  • KI-Entwickler
  • Datenscientists
 14 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Kommende Kurse

Verwandte Kategorien