Schulungsübersicht

Einführung in Ollama

  • Was ist Ollama und wie funktioniert es?
  • Vorteile der lokalen Ausführung von AI-Modellen
  • Überblick über unterstützte LLMs (Llama, DeepSeek, Mistral usw.)

Installation und Konfiguration von Ollama

  • Systemvoraussetzungen und Hardwareüberlegungen
  • Installieren von Ollama auf verschiedenen Betriebssystemen
  • Konfigurieren von Abhängigkeiten und Umgebungssetup

Lokales Ausführen von AI-Modellen

  • Herunterladen und Laden von AI-Modellen in Ollama
  • Interagieren mit Modellen über die Kommandozeile
  • Grundlegende Prompt-Engineering für lokale AI-Aufgaben

Leistungs- und Ressourcennutzung optimieren

  • Verwalten von Hardwareressourcen für effiziente AI-Ausführung
  • Reduzierung der Latenz und Verbesserung der Modellantwortzeit
  • Benchmarking der Leistung für verschiedene Modelle

Anwendungen für die lokale AI-Ausführung

  • AI-gesteuerte Chatbots und virtuelle Assistenten
  • Datenverarbeitung und Automatisierungsaufgaben
  • Datenschutzfokussierte AI-Anwendungen

Zusammenfassung und weitere Schritte

Voraussetzungen

  • Grundlegendes Verständnis von KI und maschinellem Lernen
  • Kenntnisse in der Nutzung von Kommandozeilenoberflächen

Zielgruppe

  • Entwickler, die KI-Modelle ohne Cloud-Abhängigkeiten ausführen
  • Business-Professionals mit Interesse an AI-Datenschutz und kosteneffektiver Bereitstellung
  • KI-Enthusiasten, die lokale Modelldeployment erkunden
 7 Stunden

Teilnehmerzahl


Price per participant (excl. VAT)

Kommende Kurse

Verwandte Kategorien