Introduction to AI Security and Risk Management Schulung
AI Security and Risk Management is the practice of identifying, mitigating, and governing security threats, compliance risks, and operational exposures in AI-driven systems and workflows.
This instructor-led, live training (online or onsite) is aimed at beginner-level IT security, risk, and compliance professionals who wish to understand foundational AI security concepts, threat vectors, and global frameworks such as NIST AI RMF and ISO/IEC 42001.
By the end of this training, participants will be able to:
- Understand the unique security risks introduced by AI systems.
- Identify threat vectors such as adversarial attacks, data poisoning, and model inversion.
- Apply foundational governance models like the NIST AI Risk Management Framework.
- Align AI use with emerging standards, compliance guidelines, and ethical principles.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Schulungsübersicht
Foundations of AI and Security
- What makes AI systems unique from a security perspective
- Overview of AI lifecycle: data, training, inference, and deployment
- Basic taxonomy of AI risks: technical, ethical, legal, and organizational
AI-Specific Threat Vectors
- Adversarial examples and model manipulation
- Model inversion and data leakage risks
- Data poisoning during training phases
- Risks in generative AI (e.g., LLM misuse, prompt injection)
Security Risk Management Frameworks
- NIST AI Risk Management Framework (NIST AI RMF)
- ISO/IEC 42001 and other AI-specific standards
- Mapping AI risk to existing enterprise GRC frameworks
AI Governance and Compliance Principles
- AI accountability and auditability
- Transparency, explainability, and fairness as security-relevant properties
- Bias, discrimination, and downstream harms
Enterprise Readiness and AI Security Policies
- Defining roles and responsibilities in AI security programs
- Policy elements: development, procurement, use, and retirement
- Third-party risk and supplier AI tool usage
Regulatory Landscape and Global Trends
- Overview of the EU AI Act and international regulation
- U.S. Executive Order on Safe, Secure, and Trustworthy AI
- Emerging national frameworks and sector-specific guidance
Optional Workshop: Risk Mapping and Self-Assessment
- Mapping real-world AI use cases to NIST AI RMF functions
- Performing a basic AI risk self-assessment
- Identifying internal gaps in AI security readiness
Summary and Next Steps
Voraussetzungen
- An understanding of basic cybersecurity principles
- Experience with IT governance or risk management frameworks
- Familiarity with general AI concepts is helpful but not required
Audience
- IT security teams
- Risk managers
- Compliance professionals
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
Introduction to AI Security and Risk Management Schulung - Booking
Introduction to AI Security and Risk Management Schulung - Enquiry
Introduction to AI Security and Risk Management - Beratungsanfrage
Beratungsanfrage
Kommende Kurse
Kombinierte Kurse
AI Governance, Compliance, and Security for Enterprise Leaders
14 StundenDieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an mittelständige Unternehmensführer, die verstehen möchten, wie man KI-Systeme verantwortungsbewusst und im Einklang mit sich entwickelnden globalen Rahmenwerken wie dem EU-KI-Gesetz, GDPR, ISO/IEC 42001 und der US-Befehlskette für KI sicherheitsrelevant gestaltet.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- die rechtlichen, ethischen und regulatorischen Risiken der Nutzung von KI über verschiedene Abteilungen hinweg zu verstehen.
- wichtige KI-Governance-Rahmenwerke (EU-KI-Gesetz, NIST AI RMF, ISO/IEC 42001) zu interpretieren und anzuwenden.
- Sicherheits-, Prüfungs- und Überwachungspolitiken für die Unternehmensnutzung von KI einzurichten.
- Einkaufs- und Nutzungsrichtlinien für Drittanbieter- und internen KI-Systemen zu entwickeln.
AI Risk Management and Security in the Public Sector
7 StundenArtificial Intelligence (AI) bringt neue Dimensionen von operativen Risiken, Governance-Herausforderungen und Cybersecurity-Aussetzungen für Regierungsbehörden und -abteilungen mit sich.
Dieses durch einen Trainer geleitete Live-Training (online oder vor Ort) richtet sich an IT- und Risikoprofessionals des öffentlichen Sektors, die nur begrenzte Erfahrung in KI haben und verstehen möchten, wie man KI-Systeme im Kontext der Regierung oder der Vorgaben bewerten, überwachen und schützen kann.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Kritische Risikoaspekte von KI-Systemen zu interpretieren, einschließlich Bias, Unvorhersehbarkeit und Modelldrift.
- KI-spezifische Governance- und Auditing-Frameworks wie NIST AI RMF und ISO/IEC 42001 anzuwenden.
- Cybersecurity-Gefahren zu erkennen, die auf KI-Modelle und Datenaufbereitungsprozesse abzielen.
- Kreuzabteilungsebenen-Risikomanagementpläne und Richtlinien für die KI-Einführung auszuarbeiten.
Format des Kurses
- Interaktive Vorlesungen und Diskussionen zu Anwendungsfällen im öffentlichen Sektor.
- KI-Governance-Framework-Übungen und Richtlinienkarten.
- Szenario-basiertes Bedrohungsszenarienmodellieren und Risikobewertung.
Anpassungsoptionen des Kurses
- Um ein angepasstes Training für diesen Kurs zu beantragen, kontaktieren Sie uns bitte zur Absprache.
Building Secure and Responsible LLM Applications
14 StundenThis instructor-led, live training in Österreich (online or onsite) is aimed at intermediate-level to advanced-level AI developers, architects, and product managers who wish to identify and mitigate risks associated with LLM-powered applications, including prompt injection, data leakage, and unfiltered output, while incorporating security controls like input validation, human-in-the-loop oversight, and output guardrails.
By the end of this training, participants will be able to:
- Understand the core vulnerabilities of LLM-based systems.
- Apply secure design principles to LLM app architecture.
- Use tools such as Guardrails AI and LangChain for validation, filtering, and safety.
- Integrate techniques like sandboxing, red teaming, and human-in-the-loop review into production-grade pipelines.
Privacy-Preserving Machine Learning
14 StundenThis instructor-led, live training in Österreich (online or onsite) is aimed at advanced-level professionals who wish to implement and evaluate techniques such as federated learning, secure multiparty computation, homomorphic encryption, and differential privacy in real-world machine learning pipelines.
By the end of this training, participants will be able to:
- Understand and compare key privacy-preserving techniques in ML.
- Implement federated learning systems using open-source frameworks.
- Apply differential privacy for safe data sharing and model training.
- Use encryption and secure computation techniques to protect model inputs and outputs.
Red Teaming AI Systems: Offensive Security for ML Models
14 StundenDieses von einem Trainer geleitete Live-Seminar in Österreich (online oder vor Ort) richtet sich an fortgeschrittene Sicherheitsexperten und ML-Spezialisten, die Angriffe auf KI-Systeme simulieren möchten, Schwachstellen aufdecken und die Robustheit eingesetzter AI-Modelle verbessern.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Realweltbedrohungen für maschinelles Lernen zu simulieren.
- Gegnerische Beispiele zur Überprüfung der Modellrobustheit zu generieren.
- Die Angriffsfläche von AI-APIs und -Pipelines zu bewerten.
- Strategien für Red-Teaming in KI-Einsatzumgebungen zu entwerfen.
Securing Edge AI and Embedded Intelligence
14 StundenDieses von einem Trainer geleitete Live-Seminar in Österreich (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsexperten, die AI-Modelle, die am Rande bereitgestellt wurden, gegen Bedrohungen wie Manipulationen, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Implementierungen zu identifizieren und zu bewerten.
- Manipulationsresistenz und verschlüsselte Inferenztechniken anzuwenden.
- Randbereitgestellte Modelle zu verhärten und Datenpipelines zu schützen.
- Besondere Bedrohungsschutzstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Einführung in Edge AI und Embedded Systems
- Was ist Edge AI? Anwendungsfälle und Einschränkungen
- Edge-Hardware-Plattformen und Softwarestacks
- Sicherheitsprobleme in eingebetteten und dezentralisierten Umgebungen
Bedeutung des Bedrohungsszenarios für Edge AI
- Physischer Zugang und Risiken durch Manipulationen
- Feindliche Beispiele und Modellmanipulation
- Datenleckage und Bedrohungen durch Modellinversion
Schutz des Modells
- Strategien zur Verhärtung und Quantisierung von Modellen
- Watermarking und Fingerabdruckmodellierung
- Abwehr-Distillation und Pruning
Verschlüsselte Inferenz und sichere Ausführung
- Beschränkte Ausführungs-Umgebungen (TEEs) für AI
- Sichere Enklaven und vertrauliche Berechnung
- Verschlüsselte Inferenz mit homomorpher Verschlüsselung oder SMPC
Ermittlung von Manipulationen und Geräteebene-Kontrollen
- Sicheres Booting und Integritätstests für Firmware
- Sensorvalidierung und Anomaliedetektion
- Entfernte Attestation und Überwachung der Geräteseitigen Gesundheit
Knotenpunkt-zu-Cloud Security Integration
- Sichere Datentransmission und Schlüsselverwaltung
- Verschlüsselung von End zu End und Schutz des Datenlebenszyklus
- Cloud-AI-Orchestrierung mit Sicherheitsrestriktionen am Rande
Beste Praktiken und Risikominimierungsstrategien
- Bedrohungsszenarien für Edge-AI-Systeme
- Sicherheitsdesignprinzipien für eingebettete Intelligenz
- Inzidenzreaktion und Firmwareaktualisierungsmanagement
Zusammenfassung und nächste Schritte
Die Sicherheit von Edge AI und eingebetteter Intelligenz bezieht sich auf die Schutzmaßnahmen für maschinelles Lernen-Modelle und Daten in eingeschränkten, oft physisch ausgesetzten Umgebungen wie Drohnen, Sensoren, intelligenten Kameras und autonomen Systemen.
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsexperten, die AI-Modelle, die am Rande bereitgestellt wurden, gegen Bedrohungen wie Manipulationen, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Implementierungen zu identifizieren und zu bewerten.
- Manipulationsresistenz und verschlüsselte Inferenztechniken anzuwenden.
- Randbereitgestellte Modelle zu verhärten und Datenpipelines zu schützen.
- Besondere Bedrohungsschutzstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Händische Implementierung in einer Live-Lab-Umgebung.
Anpassungsoptionen für den Kurs
- Um einen angepassten Kurs anzufordern, kontaktieren Sie uns bitte zur Absprache.
Eine Grundkenntnis eingebetteter Systeme oder Edge-AI-Implementierungs-Umgebungen
Erfahrung mit Python und ML-Frameworks (z.B. TensorFlow Lite, PyTorch Mobile)
Basisverständnis von Cybersecurity oder IoT-Bedrohungsszenarien
Zielgruppe
- Entwickler für eingebettete KI
- Sicherheitsexperten im Bereich IoT
- Ingenieure, die ML-Modelle auf Edge-Geräten oder eingeschränkten Geräten bereitstellen
Dieses von einem Trainer geleitete Live-Seminar in Österreich (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsexperten, die AI-Modelle, die am Rande bereitgestellt wurden, gegen Bedrohungen wie Manipulationen, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Implementierungen zu identifizieren und zu bewerten.
- Manipulationsresistenz und verschlüsselte Inferenztechniken anzuwenden.
- Randbereitgestellte Modelle zu verhärten und Datenpipelines zu schützen.
- Besondere Bedrohungsschutzstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Securing AI Models: Threats, Attacks, and Defenses
14 StundenDieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.
Einführung in das Bedrohungsmodellierung von KI-Systemen
- Was macht AI-Systeme anfällig?
- AI-Angriffsfläche im Vergleich zu traditionellen Systemen
- Kritische Angriffspfade: Daten-, Modell-, Ausgabe- und Schnittstellenebenen
Feindliche Angriffe auf AI-Modelle
- Verständnis von feindseligen Beispielen und Störungstechniken
- Weißer Box versus schwarzer Box-Angriffe
- Methode FGSM, PGD und DeepFool
- Sichtbarmachen und Erstellen von feindlichen Proben
Modell-Inversion und Datenschutzverletzung
- Ableitung der Trainingsdaten aus dem Modellausgabe
- Mitgliedschaftsinferenzangriffe
- Datenschutzrisiken in Klassifizierungs- und generativen Modellen
Datenvergiftung und Backdoor-Injektionen
- Wie vergiftete Daten das Modellverhalten beeinflussen
- Auslöserbasierte Backdoors und Trojanerangriffe
- Detektions- und Sanierungsmethoden
Robustheit und Verteidigungstechniken
- Feindliches Training und Datenverstärkung
- Gradientenmaskierung und Eingangs-Vorbehandlung
- Modellglättung und Regularisierungsstrategien
Datenschutzmaßnahmen in KI-Verteidigungen
- Einführung in die differenzielle Privatsphäre
- Rauscheinführung und Datenschutzbudgets
- Federated Learning und sichere Aggregation
AI Security in der Praxis
- Bedrohungsbewusste Modellauswertung und -bereitstellung
- Nutzung von ART (Adversarial Robustness Toolbox) in angewandten Szenarien
- Branche-Fallstudien: Echte Welt-Angriffe und Gegenmaßnahmen
Zusammenfassung und weitere Schritte
Das Sicherheitsmanagement von AI-Modellen ist die Disziplin, mit der maschinelle Lernsysteme gegen modellspezifische Bedrohungen wie feindliche Eingaben, Datenvergiftung, Inversionsangriffe und Datenschutzverletzungen verteidigt werden.
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Händische Implementierung in einer Live-Lab-Umgebung.
Kursanpassungsoptionen
- Für eine angepasste Ausbildung für diesen Kurs, kontaktieren Sie uns bitte zur Arrangement.
Voraussetzungen
- Ein Verständnis von maschinellem Lernprozess und Modelltraining
- Erfahrung mit Python und gängigen ML-Frameworks wie PyTorch oder TensorFlow
- Bekanntschaft mit grundlegenden Sicherheits- oder Bedrohungskonzepten ist hilfreich
Zielgruppe
- Machine Learning Ingenieure
- Cybersecurity Analysten
- AI-Forscher und Modellvalidierungsteams
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.