Red Teaming AI Systems: Offensive Security for ML Models Schulung
Red Teaming von KI-Systemen ist ein spezialisiertes Bereich der offensiven Sicherheit, der sich darauf konzentriert, Schwachstellen in maschinellem Lernen und Deployment-Pipelines durch gegnerische Tests und Belastungssimulationen zu identifizieren.
Dieser von einem Trainer geleitete Live-Kurs (online oder vor Ort) richtet sich an fortgeschrittene Sicherheitsexperten und ML-Spezialisten, die Angriffe auf KI-Systeme simulieren, Schwachstellen erkennen und die Robustheit der bereitgestellten AI-Modelle verbessern möchten.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Echtweltbedrohungen für maschinelles Lernen zu simulieren.
- Gegnerische Beispiele zur Überprüfung der Modellrobustheit zu generieren.
- Die Angriffsfläche von AI-APIs und -Pipelines zu bewerten.
- Strategien für Red Teaming in KI-Deployment-Umgebungen zu entwerfen.
Kursformat
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Händische Umsetzung in einer Live-Lab-Umgebung.
Anpassungsoptionen des Kurses
- Um eine angepasste Ausbildung für diesen Kurs zu beantragen, kontaktieren Sie uns bitte zur Absprache.
Schulungsübersicht
Einführung in das Red Teaming für KI
- Verständnis des Bedrohungsszenarios der KI
- Rollen von Red Teams bei der Sicherheit von KIs
- Ethische und rechtliche Überlegungen
Gegnerisch Machine Learning
- Arten von Angriffen: Evasion, Poisoning, Extraktion, Inferenz
- Erstellung gegnerischer Beispiele (z.B. FGSM, PGD)
- Zielgerichtete vs. nicht zielgerichtete Angriffe und Erfolgsmetriken
Testen der Modellrobustheit
- Bewertung der Robustheit unter Störungen
- Aufdecken von Blindgängen und Ausfallmodi des Modells
- Stresstests für Klassifizierungs-, Sehen- und NLP-Modelle
Red Teaming von KI-Pipelines
- Angriffsfläche von KI-Pipelines: Daten, Modell, Bereitstellung
- Ausnutzung unsicherer Modell-APIs und -Endpunkte
- Rückwärts-Engineering des Modellverhaltens und -ausgabes
Simulation und Werkzeuge
- Nutzung des Adversarial Robustness Toolboxes (ART)
- Red Teaming mit Werkzeugen wie TextAttack und IBM ART
- Sandboxes, Überwachungs- und Beobachtbarkeitswerkzeuge
Strategien und Verteidigung von AI Red Teams Collaboration
- Aufbau von Übungen und Ziele für Red Teams
- Kommunikation der Ergebnisse an Blue Teams
- Einfügen des Red Teaming in die KI-Risikomanagement
Zusammenfassung und nächste Schritte
Voraussetzungen
- Eine Grundlage in maschinellem Lernen und Architekturen des tiefen Lernens
- Erfahrung mit Python und ML-Frameworks (z.B., TensorFlow, PyTorch)
- Kenntnisse im Bereich Cybersecurity oder offensive Sicherheitstechniken
Zielgruppe
- Sicherheitsforscher
- Offensive Sicherheitsteams
- AI-Garantie und Red-Team-Professionals
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
Red Teaming AI Systems: Offensive Security for ML Models Schulung - Booking
Red Teaming AI Systems: Offensive Security for ML Models Schulung - Enquiry
Red Teaming AI Systems: Offensive Security for ML Models - Beratungsanfrage
Beratungsanfrage
Kommende Kurse
Kombinierte Kurse
AI Governance, Compliance, and Security for Enterprise Leaders
14 StundenDieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an mittelständige Unternehmensführer, die verstehen möchten, wie man KI-Systeme verantwortungsbewusst und im Einklang mit sich entwickelnden globalen Rahmenwerken wie dem EU-KI-Gesetz, GDPR, ISO/IEC 42001 und der US-Befehlskette für KI sicherheitsrelevant gestaltet.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- die rechtlichen, ethischen und regulatorischen Risiken der Nutzung von KI über verschiedene Abteilungen hinweg zu verstehen.
- wichtige KI-Governance-Rahmenwerke (EU-KI-Gesetz, NIST AI RMF, ISO/IEC 42001) zu interpretieren und anzuwenden.
- Sicherheits-, Prüfungs- und Überwachungspolitiken für die Unternehmensnutzung von KI einzurichten.
- Einkaufs- und Nutzungsrichtlinien für Drittanbieter- und internen KI-Systemen zu entwickeln.
Building Secure and Responsible LLM Applications
14 StundenDieser von einem Trainer geleitete Live-Kurs in Österreich (online oder vor Ort) richtet sich an fortgeschrittene AI-Entwickler, Architekten und Produktmanager, die Risiken mit LLM-gesteuerten Anwendungen identifizieren und minimieren möchten, einschließlich Prompt-Injection, Datenleckage und unzusammenhängender Ausgabe, während sie Sicherheitskontrollen wie Eingabeverifikation, menschenbasierte Überwachung und Ausgabegrenzwerte einbinden.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die Kernschwächen von LLM-basierten Systemen zu verstehen.
- Sichere Designprinzipien auf die Architektur von LLM-Anwendungen anzuwenden.
- Werkzeuge wie Guardrails AI und LangChain zur Validierung, Filterung und Sicherheit zu verwenden.
- Mit Techniken wie Sandboxing, Red Teaming und menschenbasierten Überprüfungen in Produktionspipelines zu integrieren.
Introduction to AI Security and Risk Management
14 StundenDieses von einem Trainer geleitete Live-Seminar in Österreich (online oder vor Ort) richtet sich an Einsteiger im Bereich IT-Sicherheit, Risikomanagement und Compliance, die grundlegende AI-Sicherheitskonzepte, Bedrohungsszenarien sowie globale Rahmenwerke wie NIST AI RMF und ISO/IEC 42001 verstehen möchten.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- die einzigartigen Sicherheitsrisiken zu verstehen, die durch AI-Systeme eingeführt werden.
- Betroffenheit von Bedrohungsszenarien wie feindlichen Angriffen, Datenvergiftung und Modell-Inversion zu identifizieren.
- grundlegende Governance-Modelle wie das NIST AI Risk Management Framework anzuwenden.
- Außenstehend Standards, Compliance-Richtlinien und ethische Prinzipien mit der Nutzung von AI auszurichten.
Privacy-Preserving Machine Learning
14 StundenDieser von einem Trainer geleitete Live-Kurs in Österreich (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die Techniken wie federated learning, sicherheitsrelevante Multiparty-Berechnung, homomorphe Verschlüsselung und differenzielle Privatsphäre in realen Machine-Learning-Pipelines implementieren und evaluieren möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Schwerpunkte von datenschutztechnischen Techniken im ML zu verstehen und zu vergleichen.
- Federated Learning-Systeme mit Open-Source-Frameworks implementieren.
- Differenzielle Privatsphäre anwenden, um sichere Datenaustausch und Modellausbildung sicherzustellen.
- Verschlüsselungs- und sichere Berechnungstechniken verwenden, um Eingaben und Ausgaben des Modells zu schützen.
Format des Kurses
- Interaktive Vorlesungen und Diskussionen.
- Viele Übungen und Praxis.
- Händische Implementierung in einer Live-Lab-Umgebung.
Anpassungsoptionen des Kurses
- Um eine angepasste Ausbildung für diesen Kurs anzufordern, kontaktieren Sie uns bitte zur Absprache.
Dieser von einem Trainer geleitete Live-Kurs in Österreich (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die Techniken wie federated learning, sicherheitsrelevante Multiparty-Berechnung, homomorphe Verschlüsselung und differenzielle Privatsphäre in realen Machine-Learning-Pipelines implementieren und evaluieren möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Schwerpunkte von datenschutztechnischen Techniken im ML zu verstehen und zu vergleichen.
- Federated Learning-Systeme mit Open-Source-Frameworks implementieren.
- Differenzielle Privatsphäre anwenden, um sichere Datenaustausch und Modellausbildung sicherzustellen.
- Verschlüsselungs- und sichere Berechnungstechniken verwenden, um Eingaben und Ausgaben des Modells zu schützen.
Privacy-Preserving Machine Learning ist ein Bereich, der darauf abzielt, sensible Daten zu schützen, während gleichzeitig erweiterte AI-Fähigkeiten in dezentralisierten oder eingeschränkten Umgebungen ermöglicht werden.
Dieser von einem Trainer geleitete Live-Kurs (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die Techniken wie federated learning, sicherheitsrelevante Multiparty-Berechnung, homomorphe Verschlüsselung und differenzielle Privatsphäre in realen Machine-Learning-Pipelines implementieren und evaluieren möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Schwerpunkte von datenschutztechnischen Techniken im ML zu verstehen und zu vergleichen.
- Federated Learning-Systeme mit Open-Source-Frameworks implementieren.
- Differenzielle Privatsphäre anwenden, um sichere Datenaustausch und Modellausbildung sicherzustellen.
- Verschlüsselungs- und sichere Berechnungstechniken verwenden, um Eingaben und Ausgaben des Modells zu schützen.
Einführung in Privacy-Preserving ML
- Motivationen und Risiken in Umgebungen mit sensiblen Daten
- Überblick über datenschutztechnische ML-Techniken
- Bewertungsmodelle und rechtliche Überlegungen (z.B., GDPR, HIPAA)
Federated Learning
- Konzept und Architektur des federated learning
- Client-Server-Synchronisation und Aggregation
- Implementierung mit PySyft und Flower
Differenzielle Privatsphäre
- Mathematik der differenzialen Privatsphäre
- Anwendung von DP in Datenabfragen und Modellausbildung
- Verwendung von Opacus und TensorFlow Privacy
Sichere Multiparty-Berechnung (SMPC)
- SMPC-Protokolle und Anwendungsfälle
- Verschlüsselungs-basierte vs. Secret-Sharing-Ansätze
- Sichere Berechnungsworkflows mit CrypTen oder PySyft
Homomorphe Verschlüsselung
- Fully vs partiell homomorphe Verschlüsselung
- Verschlüsselte Inferenz für sensible Workloads
- Händische Arbeit mit TenSEAL und Microsoft SEAL
Anwendungen und Branchen-Schwerpunkte
- Privatsphäre in der Gesundheitsversorgung: federated learning für medizinisches AI
- Sichere Zusammenarbeit im Finanzbereich: Risikomodelle und Einhaltung von Vorschriften
- Anwendungsfälle des Verteidigungs- und Regierungsbereichs
Zusammenfassung und nächste Schritte
- Eine Grundlage der Prinzipien des maschinellen Lernens
- Erlebnis mit Python und ML-Bibliotheken (z.B., PyTorch, TensorFlow)
- Bekanntschaft mit Datenschutz- oder Cybersecurity-Konzepten ist hilfreich
Publikum
- AI-Forscher
- Mitarbeiter in Teams für Datensicherheit und Privatsphärekonformität
- Sicherheitsingenieure in regulierten Branchen
Dieser von einem Trainer geleitete Live-Kurs in Österreich (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die Techniken wie federated learning, sicherheitsrelevante Multiparty-Berechnung, homomorphe Verschlüsselung und differenzielle Privatsphäre in realen Machine-Learning-Pipelines implementieren und evaluieren möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Schwerpunkte von datenschutztechnischen Techniken im ML zu verstehen und zu vergleichen.
- Federated Learning-Systeme mit Open-Source-Frameworks implementieren.
- Differenzielle Privatsphäre anwenden, um sichere Datenaustausch und Modellausbildung sicherzustellen.
- Verschlüsselungs- und sichere Berechnungstechniken verwenden, um Eingaben und Ausgaben des Modells zu schützen.
Privacy-Preserving Machine Learning
Securing Edge AI and Embedded Intelligence
14 StundenDieses von einem Trainer geleitete Live-Seminar in Österreich (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsexperten, die AI-Modelle, die am Rande bereitgestellt wurden, gegen Bedrohungen wie Manipulationen, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Implementierungen zu identifizieren und zu bewerten.
- Manipulationsresistenz und verschlüsselte Inferenztechniken anzuwenden.
- Randbereitgestellte Modelle zu verhärten und Datenpipelines zu schützen.
- Besondere Bedrohungsschutzstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Einführung in Edge AI und Embedded Systems
- Was ist Edge AI? Anwendungsfälle und Einschränkungen
- Edge-Hardware-Plattformen und Softwarestacks
- Sicherheitsprobleme in eingebetteten und dezentralisierten Umgebungen
Bedeutung des Bedrohungsszenarios für Edge AI
- Physischer Zugang und Risiken durch Manipulationen
- Feindliche Beispiele und Modellmanipulation
- Datenleckage und Bedrohungen durch Modellinversion
Schutz des Modells
- Strategien zur Verhärtung und Quantisierung von Modellen
- Watermarking und Fingerabdruckmodellierung
- Abwehr-Distillation und Pruning
Verschlüsselte Inferenz und sichere Ausführung
- Beschränkte Ausführungs-Umgebungen (TEEs) für AI
- Sichere Enklaven und vertrauliche Berechnung
- Verschlüsselte Inferenz mit homomorpher Verschlüsselung oder SMPC
Ermittlung von Manipulationen und Geräteebene-Kontrollen
- Sicheres Booting und Integritätstests für Firmware
- Sensorvalidierung und Anomaliedetektion
- Entfernte Attestation und Überwachung der Geräteseitigen Gesundheit
Knotenpunkt-zu-Cloud Security Integration
- Sichere Datentransmission und Schlüsselverwaltung
- Verschlüsselung von End zu End und Schutz des Datenlebenszyklus
- Cloud-AI-Orchestrierung mit Sicherheitsrestriktionen am Rande
Beste Praktiken und Risikominimierungsstrategien
- Bedrohungsszenarien für Edge-AI-Systeme
- Sicherheitsdesignprinzipien für eingebettete Intelligenz
- Inzidenzreaktion und Firmwareaktualisierungsmanagement
Zusammenfassung und nächste Schritte
Die Sicherheit von Edge AI und eingebetteter Intelligenz bezieht sich auf die Schutzmaßnahmen für maschinelles Lernen-Modelle und Daten in eingeschränkten, oft physisch ausgesetzten Umgebungen wie Drohnen, Sensoren, intelligenten Kameras und autonomen Systemen.
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsexperten, die AI-Modelle, die am Rande bereitgestellt wurden, gegen Bedrohungen wie Manipulationen, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Implementierungen zu identifizieren und zu bewerten.
- Manipulationsresistenz und verschlüsselte Inferenztechniken anzuwenden.
- Randbereitgestellte Modelle zu verhärten und Datenpipelines zu schützen.
- Besondere Bedrohungsschutzstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Händische Implementierung in einer Live-Lab-Umgebung.
Anpassungsoptionen für den Kurs
- Um einen angepassten Kurs anzufordern, kontaktieren Sie uns bitte zur Absprache.
Eine Grundkenntnis eingebetteter Systeme oder Edge-AI-Implementierungs-Umgebungen
Erfahrung mit Python und ML-Frameworks (z.B. TensorFlow Lite, PyTorch Mobile)
Basisverständnis von Cybersecurity oder IoT-Bedrohungsszenarien
Zielgruppe
- Entwickler für eingebettete KI
- Sicherheitsexperten im Bereich IoT
- Ingenieure, die ML-Modelle auf Edge-Geräten oder eingeschränkten Geräten bereitstellen
Dieses von einem Trainer geleitete Live-Seminar in Österreich (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsexperten, die AI-Modelle, die am Rande bereitgestellt wurden, gegen Bedrohungen wie Manipulationen, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Implementierungen zu identifizieren und zu bewerten.
- Manipulationsresistenz und verschlüsselte Inferenztechniken anzuwenden.
- Randbereitgestellte Modelle zu verhärten und Datenpipelines zu schützen.
- Besondere Bedrohungsschutzstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Securing AI Models: Threats, Attacks, and Defenses
14 StundenDieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.
Einführung in das Bedrohungsmodellierung von KI-Systemen
- Was macht AI-Systeme anfällig?
- AI-Angriffsfläche im Vergleich zu traditionellen Systemen
- Kritische Angriffspfade: Daten-, Modell-, Ausgabe- und Schnittstellenebenen
Feindliche Angriffe auf AI-Modelle
- Verständnis von feindseligen Beispielen und Störungstechniken
- Weißer Box versus schwarzer Box-Angriffe
- Methode FGSM, PGD und DeepFool
- Sichtbarmachen und Erstellen von feindlichen Proben
Modell-Inversion und Datenschutzverletzung
- Ableitung der Trainingsdaten aus dem Modellausgabe
- Mitgliedschaftsinferenzangriffe
- Datenschutzrisiken in Klassifizierungs- und generativen Modellen
Datenvergiftung und Backdoor-Injektionen
- Wie vergiftete Daten das Modellverhalten beeinflussen
- Auslöserbasierte Backdoors und Trojanerangriffe
- Detektions- und Sanierungsmethoden
Robustheit und Verteidigungstechniken
- Feindliches Training und Datenverstärkung
- Gradientenmaskierung und Eingangs-Vorbehandlung
- Modellglättung und Regularisierungsstrategien
Datenschutzmaßnahmen in KI-Verteidigungen
- Einführung in die differenzielle Privatsphäre
- Rauscheinführung und Datenschutzbudgets
- Federated Learning und sichere Aggregation
AI Security in der Praxis
- Bedrohungsbewusste Modellauswertung und -bereitstellung
- Nutzung von ART (Adversarial Robustness Toolbox) in angewandten Szenarien
- Branche-Fallstudien: Echte Welt-Angriffe und Gegenmaßnahmen
Zusammenfassung und weitere Schritte
Das Sicherheitsmanagement von AI-Modellen ist die Disziplin, mit der maschinelle Lernsysteme gegen modellspezifische Bedrohungen wie feindliche Eingaben, Datenvergiftung, Inversionsangriffe und Datenschutzverletzungen verteidigt werden.
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Händische Implementierung in einer Live-Lab-Umgebung.
Kursanpassungsoptionen
- Für eine angepasste Ausbildung für diesen Kurs, kontaktieren Sie uns bitte zur Arrangement.
Voraussetzungen
- Ein Verständnis von maschinellem Lernprozess und Modelltraining
- Erfahrung mit Python und gängigen ML-Frameworks wie PyTorch oder TensorFlow
- Bekanntschaft mit grundlegenden Sicherheits- oder Bedrohungskonzepten ist hilfreich
Zielgruppe
- Machine Learning Ingenieure
- Cybersecurity Analysten
- AI-Forscher und Modellvalidierungsteams
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.