Schulungsübersicht

Einführung in das Red Teaming für KI

  • Verständnis des Bedrohungsszenarios der KI
  • Rollen von Red Teams bei der Sicherheit von KIs
  • Ethische und rechtliche Überlegungen

Gegnerisch Machine Learning

  • Arten von Angriffen: Evasion, Poisoning, Extraktion, Inferenz
  • Erstellung gegnerischer Beispiele (z.B. FGSM, PGD)
  • Zielgerichtete vs. nicht zielgerichtete Angriffe und Erfolgsmetriken

Testen der Modellrobustheit

  • Bewertung der Robustheit unter Störungen
  • Aufdecken von Blindgängen und Ausfallmodi des Modells
  • Stresstests für Klassifizierungs-, Sehen- und NLP-Modelle

Red Teaming von KI-Pipelines

  • Angriffsfläche von KI-Pipelines: Daten, Modell, Bereitstellung
  • Ausnutzung unsicherer Modell-APIs und -Endpunkte
  • Rückwärts-Engineering des Modellverhaltens und -ausgabes

Simulation und Werkzeuge

  • Nutzung des Adversarial Robustness Toolboxes (ART)
  • Red Teaming mit Werkzeugen wie TextAttack und IBM ART
  • Sandboxes, Überwachungs- und Beobachtbarkeitswerkzeuge

Strategien und Verteidigung von AI Red Teams Collaboration

  • Aufbau von Übungen und Ziele für Red Teams
  • Kommunikation der Ergebnisse an Blue Teams
  • Einfügen des Red Teaming in die KI-Risikomanagement

Zusammenfassung und nächste Schritte

Voraussetzungen

  • Eine Grundlage in maschinellem Lernen und Architekturen des tiefen Lernens
  • Erfahrung mit Python und ML-Frameworks (z.B., TensorFlow, PyTorch)
  • Kenntnisse im Bereich Cybersecurity oder offensive Sicherheitstechniken

Zielgruppe

  • Sicherheitsforscher
  • Offensive Sicherheitsteams
  • AI-Garantie und Red-Team-Professionals
 14 Stunden

Teilnehmerzahl


Price per participant (excl. VAT)

Kommende Kurse

Verwandte Kategorien