AI Risk Management and Security in the Public Sector Schulung
Artificial Intelligence (AI) bringt neue Dimensionen von operativen Risiken, Governance-Herausforderungen und Cybersecurity-Aussetzungen für Regierungsbehörden und -abteilungen mit sich.
Dieses durch einen Trainer geleitete Live-Training (online oder vor Ort) richtet sich an IT- und Risikoprofessionals des öffentlichen Sektors, die nur begrenzte Erfahrung in KI haben und verstehen möchten, wie man KI-Systeme im Kontext der Regierung oder der Vorgaben bewerten, überwachen und schützen kann.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Kritische Risikoaspekte von KI-Systemen zu interpretieren, einschließlich Bias, Unvorhersehbarkeit und Modelldrift.
- KI-spezifische Governance- und Auditing-Frameworks wie NIST AI RMF und ISO/IEC 42001 anzuwenden.
- Cybersecurity-Gefahren zu erkennen, die auf KI-Modelle und Datenaufbereitungsprozesse abzielen.
- Kreuzabteilungsebenen-Risikomanagementpläne und Richtlinien für die KI-Einführung auszuarbeiten.
Format des Kurses
- Interaktive Vorlesungen und Diskussionen zu Anwendungsfällen im öffentlichen Sektor.
- KI-Governance-Framework-Übungen und Richtlinienkarten.
- Szenario-basiertes Bedrohungsszenarienmodellieren und Risikobewertung.
Anpassungsoptionen des Kurses
- Um ein angepasstes Training für diesen Kurs zu beantragen, kontaktieren Sie uns bitte zur Absprache.
Schulungsübersicht
Verständnis der AI-spezifischen Risiken in Government-Umgebungen
- Wie sich das AI-Risiko von traditionellen IT- und Datenrisiken unterscheidet
- Kategorien des AI-Risikos: technisch, operativ, reputationsbezogen und ethisch
- Öffentliche Verantwortung und Risikoperzeption in der Regierung
AI-Risk Management-Frameworks
- NIST AI-Risk Management-Framework (AI RMF)
- ISO/IEC 42001:2023 — AI-Management-Systemstandard
- Sektor-spezifische und internationale Leitlinien (z.B. OECD, UNESCO)
Sicherheitsbedrohungen für AI-Systeme
- Feindliche Eingaben, Datensalat und Modell-Inversion
- Aussetzung sensibler Trainingsdaten
- Lieferkettengesundheit und Risiken durch Drittanbietermodelle
Governance, Prüfung und Kontrolle
- Menschen-in-the-loop und Verantwortlichkeitsmechanismen
- Prüfbare AI: Dokumentation, Versionsverwaltung und Interpretierbarkeit
- Innere Kontrollen, Überwachungsrollen und Einhaltung von Compliance-Checkpoints
Risikoanalyse und Abmilderungsplanung
- Aufbau von Risikoregistern für AI-Anwendungsfälle
- Kooperation mit Einkaufs-, Rechtsabteilungen und Service-Designteams
- Durchführung von Vor- und Nachbetriebsbewertungen
Reaktion auf Vorfälle und Resilienz im öffentlichen Sektor
- Aufnahme von AI-verknüpften Vorfällen und Brüchen
- Kommunikation mit Stakeholdern und der Öffentlichkeit
- Einfügen von AI-Risikopraktiken in Cybersecurity-Handbücher
Zusammenfassung und nächste Schritte
Voraussetzungen
- Erfahrung in IT-Operationen, Risikomanagement, Cybersecurity oder Compliance innerhalb von staatlichen Einrichtungen
- Bekanntschaft mit organisatorischen Sicherheitspraktiken und der Lieferung digitaler Dienstleistungen
- Keine vorherige technische Expertise in AI-Systemen erforderlich
Zielgruppe
- Government IT-Teams, die an digitale Dienste und Systemintegration beteiligt sind
- Cybersecurity- und Risikoexperten in öffentlichen Einrichtungen
- Auditor-, Compliance- und Governance-Personal im öffentlichen Sektor
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
AI Risk Management and Security in the Public Sector Schulung - Booking
AI Risk Management and Security in the Public Sector Schulung - Enquiry
AI Risk Management and Security in the Public Sector - Beratungsanfrage
Beratungsanfrage
Kommende Kurse
Kombinierte Kurse
AI Governance, Compliance, and Security for Enterprise Leaders
14 StundenDieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an mittelständige Unternehmensführer, die verstehen möchten, wie man KI-Systeme verantwortungsbewusst und im Einklang mit sich entwickelnden globalen Rahmenwerken wie dem EU-KI-Gesetz, GDPR, ISO/IEC 42001 und der US-Befehlskette für KI sicherheitsrelevant gestaltet.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- die rechtlichen, ethischen und regulatorischen Risiken der Nutzung von KI über verschiedene Abteilungen hinweg zu verstehen.
- wichtige KI-Governance-Rahmenwerke (EU-KI-Gesetz, NIST AI RMF, ISO/IEC 42001) zu interpretieren und anzuwenden.
- Sicherheits-, Prüfungs- und Überwachungspolitiken für die Unternehmensnutzung von KI einzurichten.
- Einkaufs- und Nutzungsrichtlinien für Drittanbieter- und internen KI-Systemen zu entwickeln.
AI Policy and Regulation for Governments
7 StundenDieser von einem Trainer geleitete Live-Kurs (online oder vor Ort) richtet sich an Anfänger / Fortgeschrittene / Experten der ___-Technologie, die ___ zur Nutzung möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- ___ zu installieren und zu konfigurieren.
- ___.
- ___.
- ___.
AI-Enhanced Public Service Delivery
7 StundenDiese von einem Trainer geleitete Live-Ausbildung in Österreich (online oder vor Ort) richtet sich an Anfänger / Fortgeschrittene / Experten im ___-Bereich, die ___ zur Nutzung ___ möchten.
Am Ende dieser Ausbildung werden die Teilnehmer in der Lage sein:
- ___ zu installieren und zu konfigurieren.
- ___.
- ___.
- ___.
AI Tools for Administrative Efficiency (ChatGPT, Copilot, Gemini)
7 StundenDieser von einem Trainer geleitete Live-Kurs in Österreich (online oder vor Ort) richtet sich an Einsteiger / Fortgeschrittene / Experten auf der Ebene ___, die ___ zur Nutzung von ___ möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- ___ zu installieren und zu konfigurieren.
- ___.
- ___.
- ___.
Building Secure and Responsible LLM Applications
14 StundenDieser von einem Trainer geleitete Live-Kurs in Österreich (online oder vor Ort) richtet sich an fortgeschrittene AI-Entwickler, Architekten und Produktmanager, die Risiken mit LLM-gesteuerten Anwendungen identifizieren und minimieren möchten, einschließlich Prompt-Injection, Datenleckage und unzusammenhängender Ausgabe, während sie Sicherheitskontrollen wie Eingabeverifikation, menschenbasierte Überwachung und Ausgabegrenzwerte einbinden.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die Kernschwächen von LLM-basierten Systemen zu verstehen.
- Sichere Designprinzipien auf die Architektur von LLM-Anwendungen anzuwenden.
- Werkzeuge wie Guardrails AI und LangChain zur Validierung, Filterung und Sicherheit zu verwenden.
- Mit Techniken wie Sandboxing, Red Teaming und menschenbasierten Überprüfungen in Produktionspipelines zu integrieren.
DeepSeek for Government and Policy-Making
14 StundenDiese von einem Ausbilder geleitete Live-Schulung in Österreich (online oder vor Ort) richtet sich an fortgeschrittene Behördenmitarbeiter und Politikexperten, die DeepSeek für datengestützte Governance und politische Innovation nutzen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Nutzung von DeepSeek AI für politische Analysen und strategische Entscheidungen.
- Regierungsberichte zu automatisieren und die Datentransparenz zu verbessern.
- KI-gestützte Erkenntnisse für Innovationen im öffentlichen Sektor nutzen.
- das Engagement der Bürger durch KI-gestützte Lösungen zu verbessern.
Intermediate Gemini AI for Public Sector Professionals
16 StundenThis instructor-led, live training in Österreich (online or onsite) is aimed at intermediate-level public sector professionals who wish to use Gemini to generate high-quality content, assist with research, and improve productivity through more advanced AI interactions.
By the end of this training, participants will be able to:
- Craft more effective and tailored prompts for specific use cases.
- Generate original and creative content using Gemini.
- Summarize and compare complex information with precision.
- Use Gemini for brainstorming, planning, and organizing ideas efficiently.
Introduction to AI for Public Sector Leaders
7 StundenDiese von einem Trainer geleitete Live-Ausbildung in Österreich (online oder vor Ort) richtet sich an Anfänger / Fortgeschrittene / Experten im ___ , die ___ zur Nutzung von ___ interessiert sind.
Am Ende dieser Ausbildung werden die Teilnehmer in der Lage sein:
- ___ zu installieren und zu konfigurieren.
- ___.
- ___.
- ___.
Introduction to AI Security and Risk Management
14 StundenDieses von einem Trainer geleitete Live-Seminar in Österreich (online oder vor Ort) richtet sich an Einsteiger im Bereich IT-Sicherheit, Risikomanagement und Compliance, die grundlegende AI-Sicherheitskonzepte, Bedrohungsszenarien sowie globale Rahmenwerke wie NIST AI RMF und ISO/IEC 42001 verstehen möchten.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- die einzigartigen Sicherheitsrisiken zu verstehen, die durch AI-Systeme eingeführt werden.
- Betroffenheit von Bedrohungsszenarien wie feindlichen Angriffen, Datenvergiftung und Modell-Inversion zu identifizieren.
- grundlegende Governance-Modelle wie das NIST AI Risk Management Framework anzuwenden.
- Außenstehend Standards, Compliance-Richtlinien und ethische Prinzipien mit der Nutzung von AI auszurichten.
Privacy-Preserving Machine Learning
14 StundenDieser von einem Trainer geleitete Live-Kurs in Österreich (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die Techniken wie federated learning, sicherheitsrelevante Multiparty-Berechnung, homomorphe Verschlüsselung und differenzielle Privatsphäre in realen Machine-Learning-Pipelines implementieren und evaluieren möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Schwerpunkte von datenschutztechnischen Techniken im ML zu verstehen und zu vergleichen.
- Federated Learning-Systeme mit Open-Source-Frameworks implementieren.
- Differenzielle Privatsphäre anwenden, um sichere Datenaustausch und Modellausbildung sicherzustellen.
- Verschlüsselungs- und sichere Berechnungstechniken verwenden, um Eingaben und Ausgaben des Modells zu schützen.
Format des Kurses
- Interaktive Vorlesungen und Diskussionen.
- Viele Übungen und Praxis.
- Händische Implementierung in einer Live-Lab-Umgebung.
Anpassungsoptionen des Kurses
- Um eine angepasste Ausbildung für diesen Kurs anzufordern, kontaktieren Sie uns bitte zur Absprache.
Dieser von einem Trainer geleitete Live-Kurs in Österreich (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die Techniken wie federated learning, sicherheitsrelevante Multiparty-Berechnung, homomorphe Verschlüsselung und differenzielle Privatsphäre in realen Machine-Learning-Pipelines implementieren und evaluieren möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Schwerpunkte von datenschutztechnischen Techniken im ML zu verstehen und zu vergleichen.
- Federated Learning-Systeme mit Open-Source-Frameworks implementieren.
- Differenzielle Privatsphäre anwenden, um sichere Datenaustausch und Modellausbildung sicherzustellen.
- Verschlüsselungs- und sichere Berechnungstechniken verwenden, um Eingaben und Ausgaben des Modells zu schützen.
Privacy-Preserving Machine Learning ist ein Bereich, der darauf abzielt, sensible Daten zu schützen, während gleichzeitig erweiterte AI-Fähigkeiten in dezentralisierten oder eingeschränkten Umgebungen ermöglicht werden.
Dieser von einem Trainer geleitete Live-Kurs (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die Techniken wie federated learning, sicherheitsrelevante Multiparty-Berechnung, homomorphe Verschlüsselung und differenzielle Privatsphäre in realen Machine-Learning-Pipelines implementieren und evaluieren möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Schwerpunkte von datenschutztechnischen Techniken im ML zu verstehen und zu vergleichen.
- Federated Learning-Systeme mit Open-Source-Frameworks implementieren.
- Differenzielle Privatsphäre anwenden, um sichere Datenaustausch und Modellausbildung sicherzustellen.
- Verschlüsselungs- und sichere Berechnungstechniken verwenden, um Eingaben und Ausgaben des Modells zu schützen.
Einführung in Privacy-Preserving ML
- Motivationen und Risiken in Umgebungen mit sensiblen Daten
- Überblick über datenschutztechnische ML-Techniken
- Bewertungsmodelle und rechtliche Überlegungen (z.B., GDPR, HIPAA)
Federated Learning
- Konzept und Architektur des federated learning
- Client-Server-Synchronisation und Aggregation
- Implementierung mit PySyft und Flower
Differenzielle Privatsphäre
- Mathematik der differenzialen Privatsphäre
- Anwendung von DP in Datenabfragen und Modellausbildung
- Verwendung von Opacus und TensorFlow Privacy
Sichere Multiparty-Berechnung (SMPC)
- SMPC-Protokolle und Anwendungsfälle
- Verschlüsselungs-basierte vs. Secret-Sharing-Ansätze
- Sichere Berechnungsworkflows mit CrypTen oder PySyft
Homomorphe Verschlüsselung
- Fully vs partiell homomorphe Verschlüsselung
- Verschlüsselte Inferenz für sensible Workloads
- Händische Arbeit mit TenSEAL und Microsoft SEAL
Anwendungen und Branchen-Schwerpunkte
- Privatsphäre in der Gesundheitsversorgung: federated learning für medizinisches AI
- Sichere Zusammenarbeit im Finanzbereich: Risikomodelle und Einhaltung von Vorschriften
- Anwendungsfälle des Verteidigungs- und Regierungsbereichs
Zusammenfassung und nächste Schritte
- Eine Grundlage der Prinzipien des maschinellen Lernens
- Erlebnis mit Python und ML-Bibliotheken (z.B., PyTorch, TensorFlow)
- Bekanntschaft mit Datenschutz- oder Cybersecurity-Konzepten ist hilfreich
Publikum
- AI-Forscher
- Mitarbeiter in Teams für Datensicherheit und Privatsphärekonformität
- Sicherheitsingenieure in regulierten Branchen
Dieser von einem Trainer geleitete Live-Kurs in Österreich (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die Techniken wie federated learning, sicherheitsrelevante Multiparty-Berechnung, homomorphe Verschlüsselung und differenzielle Privatsphäre in realen Machine-Learning-Pipelines implementieren und evaluieren möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Schwerpunkte von datenschutztechnischen Techniken im ML zu verstehen und zu vergleichen.
- Federated Learning-Systeme mit Open-Source-Frameworks implementieren.
- Differenzielle Privatsphäre anwenden, um sichere Datenaustausch und Modellausbildung sicherzustellen.
- Verschlüsselungs- und sichere Berechnungstechniken verwenden, um Eingaben und Ausgaben des Modells zu schützen.
Privacy-Preserving Machine Learning
Red Teaming AI Systems: Offensive Security for ML Models
14 StundenDieses von einem Trainer geleitete Live-Seminar in Österreich (online oder vor Ort) richtet sich an fortgeschrittene Sicherheitsexperten und ML-Spezialisten, die Angriffe auf KI-Systeme simulieren möchten, Schwachstellen aufdecken und die Robustheit eingesetzter AI-Modelle verbessern.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Realweltbedrohungen für maschinelles Lernen zu simulieren.
- Gegnerische Beispiele zur Überprüfung der Modellrobustheit zu generieren.
- Die Angriffsfläche von AI-APIs und -Pipelines zu bewerten.
- Strategien für Red-Teaming in KI-Einsatzumgebungen zu entwerfen.
Securing Edge AI and Embedded Intelligence
14 StundenDieses von einem Trainer geleitete Live-Seminar in Österreich (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsexperten, die AI-Modelle, die am Rande bereitgestellt wurden, gegen Bedrohungen wie Manipulationen, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Implementierungen zu identifizieren und zu bewerten.
- Manipulationsresistenz und verschlüsselte Inferenztechniken anzuwenden.
- Randbereitgestellte Modelle zu verhärten und Datenpipelines zu schützen.
- Besondere Bedrohungsschutzstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Einführung in Edge AI und Embedded Systems
- Was ist Edge AI? Anwendungsfälle und Einschränkungen
- Edge-Hardware-Plattformen und Softwarestacks
- Sicherheitsprobleme in eingebetteten und dezentralisierten Umgebungen
Bedeutung des Bedrohungsszenarios für Edge AI
- Physischer Zugang und Risiken durch Manipulationen
- Feindliche Beispiele und Modellmanipulation
- Datenleckage und Bedrohungen durch Modellinversion
Schutz des Modells
- Strategien zur Verhärtung und Quantisierung von Modellen
- Watermarking und Fingerabdruckmodellierung
- Abwehr-Distillation und Pruning
Verschlüsselte Inferenz und sichere Ausführung
- Beschränkte Ausführungs-Umgebungen (TEEs) für AI
- Sichere Enklaven und vertrauliche Berechnung
- Verschlüsselte Inferenz mit homomorpher Verschlüsselung oder SMPC
Ermittlung von Manipulationen und Geräteebene-Kontrollen
- Sicheres Booting und Integritätstests für Firmware
- Sensorvalidierung und Anomaliedetektion
- Entfernte Attestation und Überwachung der Geräteseitigen Gesundheit
Knotenpunkt-zu-Cloud Security Integration
- Sichere Datentransmission und Schlüsselverwaltung
- Verschlüsselung von End zu End und Schutz des Datenlebenszyklus
- Cloud-AI-Orchestrierung mit Sicherheitsrestriktionen am Rande
Beste Praktiken und Risikominimierungsstrategien
- Bedrohungsszenarien für Edge-AI-Systeme
- Sicherheitsdesignprinzipien für eingebettete Intelligenz
- Inzidenzreaktion und Firmwareaktualisierungsmanagement
Zusammenfassung und nächste Schritte
Die Sicherheit von Edge AI und eingebetteter Intelligenz bezieht sich auf die Schutzmaßnahmen für maschinelles Lernen-Modelle und Daten in eingeschränkten, oft physisch ausgesetzten Umgebungen wie Drohnen, Sensoren, intelligenten Kameras und autonomen Systemen.
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsexperten, die AI-Modelle, die am Rande bereitgestellt wurden, gegen Bedrohungen wie Manipulationen, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Implementierungen zu identifizieren und zu bewerten.
- Manipulationsresistenz und verschlüsselte Inferenztechniken anzuwenden.
- Randbereitgestellte Modelle zu verhärten und Datenpipelines zu schützen.
- Besondere Bedrohungsschutzstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Händische Implementierung in einer Live-Lab-Umgebung.
Anpassungsoptionen für den Kurs
- Um einen angepassten Kurs anzufordern, kontaktieren Sie uns bitte zur Absprache.
Eine Grundkenntnis eingebetteter Systeme oder Edge-AI-Implementierungs-Umgebungen
Erfahrung mit Python und ML-Frameworks (z.B. TensorFlow Lite, PyTorch Mobile)
Basisverständnis von Cybersecurity oder IoT-Bedrohungsszenarien
Zielgruppe
- Entwickler für eingebettete KI
- Sicherheitsexperten im Bereich IoT
- Ingenieure, die ML-Modelle auf Edge-Geräten oder eingeschränkten Geräten bereitstellen
Dieses von einem Trainer geleitete Live-Seminar in Österreich (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsexperten, die AI-Modelle, die am Rande bereitgestellt wurden, gegen Bedrohungen wie Manipulationen, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Implementierungen zu identifizieren und zu bewerten.
- Manipulationsresistenz und verschlüsselte Inferenztechniken anzuwenden.
- Randbereitgestellte Modelle zu verhärten und Datenpipelines zu schützen.
- Besondere Bedrohungsschutzstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Securing AI Models: Threats, Attacks, and Defenses
14 StundenDieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.
Einführung in das Bedrohungsmodellierung von KI-Systemen
- Was macht AI-Systeme anfällig?
- AI-Angriffsfläche im Vergleich zu traditionellen Systemen
- Kritische Angriffspfade: Daten-, Modell-, Ausgabe- und Schnittstellenebenen
Feindliche Angriffe auf AI-Modelle
- Verständnis von feindseligen Beispielen und Störungstechniken
- Weißer Box versus schwarzer Box-Angriffe
- Methode FGSM, PGD und DeepFool
- Sichtbarmachen und Erstellen von feindlichen Proben
Modell-Inversion und Datenschutzverletzung
- Ableitung der Trainingsdaten aus dem Modellausgabe
- Mitgliedschaftsinferenzangriffe
- Datenschutzrisiken in Klassifizierungs- und generativen Modellen
Datenvergiftung und Backdoor-Injektionen
- Wie vergiftete Daten das Modellverhalten beeinflussen
- Auslöserbasierte Backdoors und Trojanerangriffe
- Detektions- und Sanierungsmethoden
Robustheit und Verteidigungstechniken
- Feindliches Training und Datenverstärkung
- Gradientenmaskierung und Eingangs-Vorbehandlung
- Modellglättung und Regularisierungsstrategien
Datenschutzmaßnahmen in KI-Verteidigungen
- Einführung in die differenzielle Privatsphäre
- Rauscheinführung und Datenschutzbudgets
- Federated Learning und sichere Aggregation
AI Security in der Praxis
- Bedrohungsbewusste Modellauswertung und -bereitstellung
- Nutzung von ART (Adversarial Robustness Toolbox) in angewandten Szenarien
- Branche-Fallstudien: Echte Welt-Angriffe und Gegenmaßnahmen
Zusammenfassung und weitere Schritte
Das Sicherheitsmanagement von AI-Modellen ist die Disziplin, mit der maschinelle Lernsysteme gegen modellspezifische Bedrohungen wie feindliche Eingaben, Datenvergiftung, Inversionsangriffe und Datenschutzverletzungen verteidigt werden.
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Händische Implementierung in einer Live-Lab-Umgebung.
Kursanpassungsoptionen
- Für eine angepasste Ausbildung für diesen Kurs, kontaktieren Sie uns bitte zur Arrangement.
Voraussetzungen
- Ein Verständnis von maschinellem Lernprozess und Modelltraining
- Erfahrung mit Python und gängigen ML-Frameworks wie PyTorch oder TensorFlow
- Bekanntschaft mit grundlegenden Sicherheits- oder Bedrohungskonzepten ist hilfreich
Zielgruppe
- Machine Learning Ingenieure
- Cybersecurity Analysten
- AI-Forscher und Modellvalidierungsteams
Dieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cybersecurity, die verstehen und neu entstehende Bedrohungen gegen AI-Modelle durch konzeptionelle Rahmenwerke sowie praktische Verteidigungsmaßnahmen wie robustes Training und differenzielle Privatsphäre bekämpfen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- AISpezifische Bedrohungen wie feindliche Angriffe, Inversion und Vergiftung zu identifizieren und einzustufen.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) zur Simulation von Angriffen und Modelltests zu verwenden.
- Praktische Verteidigungsmaßnahmen einschließlich feindlichen Trainings, Rauscheinführung und datenschutztechnischer Techniken anzuwenden.
- In Produktionsumgebungen bedrohungsbewusste Modellauswertestrategien zu entwerfen.