Vielen Dank für die Zusendung Ihrer Anfrage! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Vielen Dank, dass Sie Ihre Buchung abgeschickt haben! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Schulungsübersicht
Einführung in Ollama
- Was ist Ollama und wie funktioniert es?
- Vorteile der lokalen Ausführung von AI-Modellen
- Überblick über unterstützte LLMs (Llama, DeepSeek, Mistral usw.)
Installation und Konfiguration von Ollama
- Systemvoraussetzungen und Hardwareüberlegungen
- Installieren von Ollama auf verschiedenen Betriebssystemen
- Konfigurieren von Abhängigkeiten und Umgebungssetup
Lokales Ausführen von AI-Modellen
- Herunterladen und Laden von AI-Modellen in Ollama
- Interagieren mit Modellen über die Kommandozeile
- Grundlegende Prompt-Engineering für lokale AI-Aufgaben
Leistungs- und Ressourcennutzung optimieren
- Verwalten von Hardwareressourcen für effiziente AI-Ausführung
- Reduzierung der Latenz und Verbesserung der Modellantwortzeit
- Benchmarking der Leistung für verschiedene Modelle
Anwendungen für die lokale AI-Ausführung
- AI-gesteuerte Chatbots und virtuelle Assistenten
- Datenverarbeitung und Automatisierungsaufgaben
- Datenschutzfokussierte AI-Anwendungen
Zusammenfassung und weitere Schritte
Voraussetzungen
- Grundlegendes Verständnis von KI und maschinellem Lernen
- Kenntnisse in der Nutzung von Kommandozeilenoberflächen
Zielgruppe
- Entwickler, die KI-Modelle ohne Cloud-Abhängigkeiten ausführen
- Business-Professionals mit Interesse an AI-Datenschutz und kosteneffektiver Bereitstellung
- KI-Enthusiasten, die lokale Modelldeployment erkunden
7 Stunden