Schulungsübersicht

Einführung in die KI-Bedrohungsmodellierung

  • Was macht KI-Systeme angreifbar?
  • Angreifbare Oberfläche von KI-Systemen im Vergleich zu traditionellen Systemen
  • Hauptangriffsvektoren: Daten-, Modell-, Ausgabe- und Schnittstellenbereiche

Feindselige Angriffe auf KI-Modelle

  • Verständnis von feindseligen Beispielen und Störungstechniken
  • White-box vs. Black-box-Angriffe
  • FGSM, PGD und DeepFool-Methoden
  • Visualisierung und Erstellung von feindseligen Beispielen

Modellinversion und Datenschutzverletzungen

  • Herleitung von Trainingsdaten aus dem Modellausgang
  • Mitgliedschaftsinferenzangriffe
  • Datenschutzrisiken bei Klassifikations- und generativen Modellen

Datenvergiftung und Backdoor-Injektionen

  • Wie vergiftete Daten das Modellverhalten beeinflussen
  • Trigger-basierte Backdoors und Trojanerangriffe
  • Erkennungs- und Säuberungsstrategien

Robustheit und Verteidigungstechniken

  • Feindseliges Training und Datenvergrößerung
  • Gradient-Masking und Eingabevorverarbeitung
  • Modellglättung und Regularisierungstechniken

Datenschutzfreundliche KI-Verteidigungen

  • Einführung in den differentialen Datenschutz
  • Rauscheinjektion und Datenschutzbudgets
  • Federated Learning und sicherer Aggregation

Praktische KI-Sicherheit

  • Bedrohungsbewusste Modellbewertung und -bereitstellung
  • Verwendung von ART (Adversarial Robustness Toolbox) in praktischen Anwendungen
  • Branchenfallstudien: Reale Vorfälle und Milderungsmaßnahmen

Zusammenfassung und weitere Schritte

Voraussetzungen

  • Ein Verständnis von maschinellen Lernabläufen und Modelltrainings
  • Erfahrung mit Python und gängigen ML-Frameworks wie PyTorch oder TensorFlow
  • Kenntnisse von grundlegenden Sicherheits- oder Bedrohungsmodellierungskonzepten sind hilfreich

Zielgruppe

  • Maschinelle Lerningenieure
  • Cybersecurity-Analysten
  • KI-Forscher und Modellvalidierungsteams
 14 Stunden

Teilnehmerzahl


Preis je Teilnehmer (exkl. USt)

Erfahrungsberichte (1)

Kommende Kurse

Verwandte Kategorien