Vielen Dank für die Zusendung Ihrer Anfrage! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Vielen Dank, dass Sie Ihre Buchung abgeschickt haben! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Schulungsübersicht
Einführung in die AI-Gefahrenmodellierung
- Was macht AI-Systeme anfällig?
- AI-Angriffsfläche im Vergleich zu traditionellen Systemen
- Kritische Angriffspfade: Daten, Modell, Ausgabe und Schnittstellen
Gegnerische Angriffe auf AI-Modelle
- Verständnis von gegnerischen Beispielen und Störungstechniken
- Weißbox vs. Schwarzbox-Angriffe
- Methode FGSM, PGD und DeepFool
- Visualisierung und Erstellung gegnerischer Proben
Modell-Inversion und Datenschutzverletzungen
- Ableitung von Trainingsdaten aus Modellausgaben
- Mitgliedschaftsinferenzangriffe
- Datenschutzzwischenfälle in Klassifikations- und Generativmodellen
Datenvergiftung und Backdoor-Injektionen
- Wie vergiftete Daten das Modellverhalten beeinflussen
- Auslöserbasierte Backdoors und Trojanerangriffe
- Erfassungs- und Sanierungstaktiken
Robustheit und Verteidigungstechniken
- Gegnerisches Training und Datenaugmentation
- Gradientenmaskierung und Eingangsverarbeitung
- Modellschmoothing und Regularisierungsverfahren
Datenschutzmaßnahmen in der AI
- Einführung in die differentielle Privatsphäre
- Lärmeinbringung und Datenschutzbudgets
- Federated Learning und sichere Aggregation
AI Security in der Praxis
- Bedrohungsbewusste Modellauswertung und -bereitstellung
- Nutzung von ART (Adversarial Robustness Toolbox) in praktischen Anwendungen
- Branche-Fallstudien: reale Brüche und Gegenmaßnahmen
Zusammenfassung und nächste Schritte
Voraussetzungen
- Eine Verständnis von Machine-Learning-Workflows und Modellausbildung
- Erfahrung mit Python und gängigen ML-Frameworks wie PyTorch oder TensorFlow
- Grundlegende Kenntnisse in Sicherheit oder Bedrohungsszenarien sind hilfreich
Zielgruppe
- Maschinelles-Lernen-Ingenieure
- Cyber-Sicherheitsanalysten
- AI-Forscher und Modellvalidierungs-Teams
14 Stunden