Schulungsübersicht

Einführung in die Biren GPU Architektur

  • Biren Überblick und Anwendungsfälle
  • Hardware-Layout: Kerne, Speicher, Berechnungskluster
  • Vergleich mit NVIDIA und AMD GPU

Einrichten der Biren Programming Umgebung

  • Installieren des Biren SDK und Runtime
  • Verständnis der Toolkette und Kompilierermodell
  • Basisprojektstruktur und -buildprozess

GPU Programming mit dem Biren-Stack

  • Thread- und Blockmodelle
  • Speicherverwaltung und Datenübertragungen
  • Kernentwicklung und Startmuster

Portieren von CUDA zu Biren

  • Übersetzungsverfahren für CUDA-Code
  • Häufige API-Mapping und -Anpassung
  • Laborübungen zur Codekonvertierung und Praxis

Fehlerbehebung und Profiling

  • Nutzung des Biren Debugger und Profiler
  • Aufspüren von Flaschenhalsstellen
  • Zugriffs- und Optimierungsstrukturen für den Speicher

Optimierungstechniken

  • Fadenscheduling und Anweisungspipelining
  • Schleifenauflösen und Nutzung des gemeinsamen Speichers
  • Erweiterte Kernenaufbereitung für Durchsatz

Fallstudien und Anwendungsbeispiele

  • Ausbildung eines Modells mit Biren-Acceleratoren
  • Portieren und Profiling eines Sehen- oder NLP-Modells
  • Vergleichen der Leistungsfähigkeit gegen CUDA/NVIDIA

Zusammenfassung und weitere Schritte

Voraussetzungen

  • Eine Grundkenntnis der GPU Architektur und Parallelausführung
  • Erfahrung mit CUDA, OpenCL oder vergleichbaren GPU-Programmierumgebungen
  • Bekanntschaft mit Deep-Learning-Frameworks wie PyTorch oder TensorFlow

Zielgruppe

  • HPC-Entwickler
  • AI-Infrastukturengineer
  • Fachkräfte für die Leistungsveredelung
 21 Stunden

Teilnehmerzahl


Price per participant (excl. VAT)

Erfahrungsberichte (1)

Kommende Kurse

Verwandte Kategorien