Dieses von einem Trainer geleitete Live-Seminar in Österreich (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsexperten, die AI-Modelle, die am Rande bereitgestellt wurden, gegen Bedrohungen wie Manipulationen, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Implementierungen zu identifizieren und zu bewerten.
- Manipulationsresistenz und verschlüsselte Inferenztechniken anzuwenden.
- Randbereitgestellte Modelle zu verhärten und Datenpipelines zu schützen.
- Besondere Bedrohungsschutzstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Einführung in Edge AI und Embedded Systems
- Was ist Edge AI? Anwendungsfälle und Einschränkungen
- Edge-Hardware-Plattformen und Softwarestacks
- Sicherheitsprobleme in eingebetteten und dezentralisierten Umgebungen
Bedeutung des Bedrohungsszenarios für Edge AI
- Physischer Zugang und Risiken durch Manipulationen
- Feindliche Beispiele und Modellmanipulation
- Datenleckage und Bedrohungen durch Modellinversion
Schutz des Modells
- Strategien zur Verhärtung und Quantisierung von Modellen
- Watermarking und Fingerabdruckmodellierung
- Abwehr-Distillation und Pruning
Verschlüsselte Inferenz und sichere Ausführung
- Beschränkte Ausführungs-Umgebungen (TEEs) für AI
- Sichere Enklaven und vertrauliche Berechnung
- Verschlüsselte Inferenz mit homomorpher Verschlüsselung oder SMPC
Ermittlung von Manipulationen und Geräteebene-Kontrollen
- Sicheres Booting und Integritätstests für Firmware
- Sensorvalidierung und Anomaliedetektion
- Entfernte Attestation und Überwachung der Geräteseitigen Gesundheit
Knotenpunkt-zu-Cloud Security Integration
- Sichere Datentransmission und Schlüsselverwaltung
- Verschlüsselung von End zu End und Schutz des Datenlebenszyklus
- Cloud-AI-Orchestrierung mit Sicherheitsrestriktionen am Rande
Beste Praktiken und Risikominimierungsstrategien
- Bedrohungsszenarien für Edge-AI-Systeme
- Sicherheitsdesignprinzipien für eingebettete Intelligenz
- Inzidenzreaktion und Firmwareaktualisierungsmanagement
Zusammenfassung und nächste Schritte
Die Sicherheit von Edge AI und eingebetteter Intelligenz bezieht sich auf die Schutzmaßnahmen für maschinelles Lernen-Modelle und Daten in eingeschränkten, oft physisch ausgesetzten Umgebungen wie Drohnen, Sensoren, intelligenten Kameras und autonomen Systemen.
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsexperten, die AI-Modelle, die am Rande bereitgestellt wurden, gegen Bedrohungen wie Manipulationen, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Implementierungen zu identifizieren und zu bewerten.
- Manipulationsresistenz und verschlüsselte Inferenztechniken anzuwenden.
- Randbereitgestellte Modelle zu verhärten und Datenpipelines zu schützen.
- Besondere Bedrohungsschutzstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Händische Implementierung in einer Live-Lab-Umgebung.
Anpassungsoptionen für den Kurs
- Um einen angepassten Kurs anzufordern, kontaktieren Sie uns bitte zur Absprache.
Eine Grundkenntnis eingebetteter Systeme oder Edge-AI-Implementierungs-Umgebungen
Erfahrung mit Python und ML-Frameworks (z.B. TensorFlow Lite, PyTorch Mobile)
Basisverständnis von Cybersecurity oder IoT-Bedrohungsszenarien
Zielgruppe
- Entwickler für eingebettete KI
- Sicherheitsexperten im Bereich IoT
- Ingenieure, die ML-Modelle auf Edge-Geräten oder eingeschränkten Geräten bereitstellen
Dieses von einem Trainer geleitete Live-Seminar in Österreich (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsexperten, die AI-Modelle, die am Rande bereitgestellt wurden, gegen Bedrohungen wie Manipulationen, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Implementierungen zu identifizieren und zu bewerten.
- Manipulationsresistenz und verschlüsselte Inferenztechniken anzuwenden.
- Randbereitgestellte Modelle zu verhärten und Datenpipelines zu schützen.
- Besondere Bedrohungsschutzstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Read more...