Datenschutz-freundliches maschinelles Lernen Schulung
Datenschutz-freundliches maschinelles Lernen ist ein Bereich, der sich auf den Schutz sensibler Daten konzentriert, während es gleichzeitig fortgeschrittene KI-Fähigkeiten in dezentralen oder eingeschränkten Umgebungen ermöglicht.
Diese von einem Trainer geleitete, live Training (online oder vor Ort) richtet sich an fortgeschrittene Fachkräfte, die Techniken wie verteiltes Lernen, sichere Mehrparteienberechnung, homomorphe Verschlüsselung und differenzielle Privatsphäre in realen maschinellen Lerntools implementieren und evaluieren möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Schlüsseltechniken des datenschutz-freundlichen maschinellen Lernens zu verstehen und zu vergleichen.
- Verteilte Lernsysteme mit Open-Source-Frameworks umzusetzen.
- Differenzielle Privatsphäre für sichere Datenübermittlung und Modelltrainings anzuwenden.
- Verschlüsselungs- und sicherheitsbasierte Berechnungstechniken zur Schutz von Modulin- und -outputs zu nutzen.
Kursformat
- Interaktive Vorlesung und Diskussion.
- Viel Übung und Praxis.
- Handson-Implementierung in einer Live-Labor-Umgebung.
Kursanpassungsoptionen
- Für eine angepasste Schulung zu diesem Kurs kontaktieren Sie uns bitte zur Anfrage.
Schulungsübersicht
Einführung in datenschutz-freundliches maschinelles Lernen
- Motivationen und Risiken in sensiblen Datenumgebungen
- Überblick über datenschutz-freundliche ML-Techniken
- Bedrohungsszenarien und regulatorische Aspekte (z.B. DSGVO, HIPAA)
Verteiltes Lernen
- Konzept und Architektur des verteilten Lernens
- Client-Server-Synchronisierung und -Aggregation
- Umsetzung mit PySyft und Flower
Differenzielle Privatsphäre
- Mathematik der differenziellen Privatsphäre
- Anwendung von DP in Datenabfragen und Modelltrainings
- Verwendung von Opacus und TensorFlow Privacy
Sichere Mehrparteienberechnung (SMPC)
- SMPC-Protokolle und Anwendungsfälle
- Verschlüsselungs-basierte vs. geheimschutz-basierte Ansätze
- Sichere Berechnungsvorgänge mit CrypTen oder PySyft
Homomorphe Verschlüsselung
- Volle vs. teilweise homomorphe Verschlüsselung
- Verschlüsselter Rückschluss für sensible Workloads
- Praktische Übungen mit TenSEAL und Microsoft SEAL
Anwendungen und Branchen-Casestudies
- Datenschutz in der Gesundheitsversorgung: verteiltes Lernen für medizinische KI
- Sichere Zusammenarbeit in der Finanzwelt: Risikomodelle und Compliance
- Anwendungsfälle im Verteidigungs- und Regierungsbereich
Zusammenfassung und Nächste Schritte
Voraussetzungen
- Grundverständnis der Prinzipien des maschinellen Lernens
- Erfahrung mit Python und ML-Bibliotheken (z.B. PyTorch, TensorFlow)
- Kenntnisse über Datenschutz oder Cybersecurity-Konzepte sind hilfreich
Zielgruppe
- KI-Forscher
- Datenschutz- und Compliance-Teams
- Sicherheitsingenieure in regulierten Branchen
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
Datenschutz-freundliches maschinelles Lernen Schulung - Buchung
Datenschutz-freundliches maschinelles Lernen Schulung - Anfrage
Datenschutz-freundliches maschinelles Lernen - Beratungsanfrage
Beratungsanfrage
Kommende Kurse
Kombinierte Kurse
ISACA Advanced in AI Security Management (AAISM)
21 StundenAAISM ist ein fortgeschrittener Rahmen zur Bewertung, Governance und Verwaltung von Sicherheitsrisiken in KI-Systemen.
Diese unter Anleitung stattfindende Live-Schulung (online oder vor Ort) richtet sich an Fortgeschrittene, die effektive Sicherheitskontrollen und Governance-Praktiken für Unternehmens-KI-Umgebungen implementieren möchten.
Am Ende dieses Programms werden die Teilnehmer in der Lage sein:
- KI-Sicherheitsrisiken mit anerkannten Branchenmethoden zu bewerten.
- Governance-Modelle für verantwortungsbewusste KI-Bereitstellungen zu implementieren.
- KI-Sicherheitsrichtlinien mit den Unternehmenszielen und regulatorischen Erwartungen abzustimmen.
- Widerstandsfähigkeit und Verantwortlichkeit in kundengesteuerten Operationen zu erhöhen.
Kursformat
- Vom Trainer geführte Vorlesungen, die durch Expertenanalyse ergänzt werden.
- Praktische Workshops und beurteilungsorientierte Aktivitäten.
- Angewandte Übungen unter Verwendung realer KI-Governance-Szenarien.
Kursanpassungsoptionen
- Für maßgeschneiderte Schulungen, die auf Ihre Unternehmens-KI-Strategie abgestimmt sind, kontaktieren Sie uns bitte zur Anpassung des Kurses.
AI-Governance, Compliance und Sicherheit für Unternehmensführer
14 StundenDiese vom Dozenten geleitete Live-Schulung in Österreich (online oder vor Ort) richtet sich an unternehmensführende Fachleute mittlerer Ebene, die verstehen möchten, wie sie KISysteme verantwortungsbewusst und im Einklang mit aufkommenden globalen Rahmenwerken wie der EU-KI-Verordnung, der DSGVO, ISO/IEC 42001 und dem US-Präsidentenverordnungen zur KI verwalten und sichern können.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die rechtlichen, ethischen und regulatorischen Risiken des KI-Einsatzes in verschiedenen Abteilungen zu verstehen.
- Wichtige KI-Governance-Rahmenwerke (EU-KI-Verordnung, NIST AI RMF, ISO/IEC 42001) zu interpretieren und anzuwenden.
- Sicherheits-, Überwachungs- und Kontrollrichtlinien für den Einsatz von KI im Unternehmen festzulegen.
- Beschaffungs- und Nutzungsleitlinien für Drittanbieter- und hausinterne KISysteme zu entwickeln.
Künstliche Intelligenz: Risikomanagement und Sicherheit im öffentlichen Sektor
7 StundenKünstliche Intelligenz (KI) führt neue Dimensionen operativer Risiken, Governance-Herausforderungen und Cybersicherheitsanfälligkeiten für Behörden und Ministerien ein.
Diese von einem Dozenten geführte Live-Trainingseinheit (online oder vor Ort) richtet sich an IT- und Risikofachleute im öffentlichen Sektor, die bisher wenig Erfahrung mit KI haben und verstehen möchten, wie sie KI-Systeme in einem regierungs- oder regelungsbezogenen Kontext evaluieren, überwachen und schützen können.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Schlüsselrisikokonzepte im Zusammenhang mit KI-Systemen zu interpretieren, einschließlich Verzerrung, Unvorhersehbarkeit und Modellverschiebung.
- KI-spezifische Governance- und Auditing-Rahmen wie NIST AI RMF und ISO/IEC 42001 anzuwenden.
- Cybersicherheitsbedrohungen zu erkennen, die KI-Modelle und Datenpipelines als Ziel haben.
- Querabteilungsrisikomanagementpläne und politische Ausrichtung für den Einsatz von KI aufzustellen.
Kursformat
- Interaktive Vorlesungen und Diskussionen über Anwendungsfälle im öffentlichen Sektor.
- Übungen zu KI-Governance-Rahmen und Politikzuordnung.
- Szenariobasierte Bedrohungsmodellierung und Risikoauswertung.
Kursanpassungsoptionen
- Für eine angepasste Schulung für diesen Kurs kontaktieren Sie uns bitte, um eine Anpassung vorzunehmen.
Einführung in KI-Vertrauen, Risiko und Security Management (KI TRiSM)
21 StundenDieses von einem Trainer geführte Live-Seminar (online oder vor Ort) richtet sich an IT-Professionals mit grundlegenden bis mittleren Kenntnissen, die ein Verständnis und die Implementierung von AI TRiSM in ihren Organisationen erwerben möchten.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Die wesentlichen Konzepte und die Bedeutung von Vertrauenswürdigkeit, Risikomanagement und Sicherheit in KI-Systemen zu verstehen.
- Risiken, die mit KI-Systemen verbunden sind, zu identifizieren und abzumildern.
- Best Practices für die Sicherheit von KI zu implementieren.
- Die Einhaltung von Vorschriften und ethische Überlegungen in der KI zu verstehen.
- Strategien zur wirksamen KI-Governance und -Verwaltung zu entwickeln.
Sichere und verantwortungsvolle LLM-Anwendungen erstellen
14 StundenDieses von einem Trainer geleitete, live durchgeführte Training in Österreich (online oder vor Ort) richtet sich an fortgeschrittene AI-Entwickler, Architekten und Produktmanager, die Risiken, die mit LLM-gestützten Anwendungen verbunden sind, einschließlich Prompt-Injection, Datendiebstahl und unkontrollierte Ausgaben, identifizieren und mindern möchten. Dabei sollen Sicherheitskontrollen wie Eingabevalidierung, menschliche Überwachung im Prozess (human-in-the-loop) und Ausgabegrenzen integriert werden.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die Kernanfälligkeiten von LLM-basierten Systemen zu verstehen.
- Sichere Designprinzipien für die Architektur von LLM-Anwendungen anzuwenden.
- Werkzeuge wie Guardrails AI und LangChain zur Validierung, Filterung und Sicherheit zu verwenden.
- Techniken wie Sandboxing, Red-Teaming und menschliche Überprüfung im Prozess (human-in-the-loop) in produktionsfähige Pipelines zu integrieren.
Cybersecurity in AI-Systemen
14 StundenDieses von einem Trainer durchgeführte, lebendige Training (online oder vor Ort) richtet sich an fortgeschrittene AI- und Cybersecurity-Profi-nale, die die Sicherheitslücken speziell für AI-Modelle und -Systeme verstehen und adressieren möchten. Insbesondere in stark regulierten Branchen wie Finanzwesen, Datengovernance und Beratung sind diese Kenntnisse von großer Bedeutung.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Die Arten von feindlichen Angriffen auf AI-Systeme und Methoden zur Verteidigung gegen diese zu verstehen.
- Techniken zur Verhärterung von Modellen anzuwenden, um Machine-Learning-Pipelines sicherzustellen.
- Datenintegrität und -sicherheit in Machine-Learning-Modellen zu gewährleisten.
- Regulierungsanforderungen im Zusammenhang mit der AI-Sicherheit zu bewältigen.
Einführung in die KI-Sicherheit und Risikomanagement
14 StundenDiese von einem Dozenten geführte Live-Training in Österreich (online oder vor Ort) richtet sich an IT-Sicherheits-, Risiko- und Compliance-Profis mit Anfängerschulung, die grundlegende KI-Sicherheitskonzepte, Bedrohungsszenarien und globale Rahmenwerke wie NIST AI RMF und ISO/IEC 42001 verstehen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die einzigartigen Sicherheitsrisiken zu verstehen, die von KI-Systemen eingeführt werden.
- Bedrohungsszenarien wie feindselige Angriffe, Datenvergiftung und Modellinversion zu identifizieren.
- Grundlegende Regierungsmodelle wie das NIST KI-Risikomanagementrahmenwerk anzuwenden.
- Die Nutzung von KI mit aufkommenden Standards, Compliance-Richtlinien und ethischen Grundsätzen zu vereinbaren.
OWASP GenAI Security
14 StundenBasierend auf den neuesten OWASP GenAI Security Project-Richtlinien lernen Teilnehmer, AI-spezifische Bedrohungen zu identifizieren, zu bewerten und abzumildern, indem sie hands-on Übungen und reale Szenarien durchführen.
Red Teaming für KI-Systeme: Offensiver Sicherheitsschutz für ML-Modelle
14 StundenDiese von einem Dozenten geleitete, live-Trainingsveranstaltung in Österreich (online oder vor Ort) richtet sich an fortgeschrittene Sicherheitsfachleute und ML-Spezialisten, die Angriffe auf KI-Systeme simulieren, Schwachstellen aufdecken und die Robustheit bereitgestellter KI-Modelle verbessern möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Realistische Bedrohungen für maschinelle Lernmodelle zu simulieren.
- Adversariale Beispiele zur Überprüfung der Modellrobustheit zu generieren.
- Die Angriffsfläche von KI-APIs und Pipelines zu bewerten.
- Red-Teaming-Strategien für AI-Bereitstellungsumgebungen zu entwerfen.
Sicherung von Edge AI und eingebetteter Intelligenz
14 StundenDiese von einem Trainer geleitete, live-Schulung in Österreich (online oder vor Ort) richtet sich an fortgeschrittene Ingenieure und Sicherheitsfachleute, die AI-Modelle am Edge gegen Bedrohungen wie Manipulation, Datenverlust, feindselige Eingaben und physische Angriffe schützen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge AI-Bereitstellungen zu identifizieren und einzuschätzen.
- Manipulationsresistenz und Verschlüsselungstechniken anzuwenden.
- Edge-Bereitstellungen zu härten und Datenpipelines sicher zu gestalten.
- Bedrohungsminderungsstrategien spezifisch für eingebettete und eingeschränkte Systeme umzusetzen.
Sicherung von KI-Modellen: Bedrohungen, Angriffe und Verteidigungsmaßnahmen
14 StundenDiese von einem Ausbilder geleitete, live-Schulung in Österreich (online oder vor Ort) richtet sich an fortgeschrittene maschinelle Lern- und Cybersecurity-Professionals, die verstehen und abmildigen möchten, welche neuen Bedrohungen gegen KI-Modelle bestehen. Dabei werden sowohl konzeptionelle Rahmenbedingungen als auch praktische Verteidigungsmaßnahmen wie robustes Training und differentialer Datenschutz genutzt.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- AI-spezifische Bedrohungen wie feindselige Angriffe, Inversion und Vergiftung zu identifizieren und zu klassifizieren.
- Tools wie das Adversarial Robustness Toolbox (ART) zum Simulieren von Angriffen und Testen von Modellen zu nutzen.
- Praktische Verteidigungsmaßnahmen einschließlich feindseligen Trainings, Rauscheinjektion und datenschutzfreundliche Techniken anzuwenden.
- Bedrohungsbewusste Modellbewertungsstrategien in Produktionsumgebungen zu entwickeln.
Sicherheit und Datenschutz in TinyML-Anwendungen
21 StundenTinyML ist ein Ansatz, um maschinelles Lernen auf energieeffizienten, ressourcenbeschränkten Geräten am Netzwerkrand einzusetzen.
Diese von einem Trainer geführte Live-Training (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die TinyML-Pipelines sichern und Datenschutzmechanismen in Edge-AI-Anwendungen implementieren möchten.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken identifizieren, die speziell für das TinyML-Inferenz auf Geräten gelten.
- Datenschutzmechanismen für Edge-AI-Bereitstellungen implementieren.
- TinyML-Modelle und eingebettete Systeme gegen feindselige Bedrohungen schützen.
- Best Practices für sichere Datenverarbeitung in ressourcenbeschränkten Umgebungen anwenden.
Kursformat
- Unterhaltsame Vorlesungen, die durch Expertendiskussionen ergänzt werden.
- Praktische Übungen mit Fokus auf realistische Bedrohungsszenarien.
- Praktische Implementierung unter Verwendung von eingebetteter Sicherheit und TinyML-Tooling.
Kursanpassungsoptionen
- Organisationen können eine angepasste Version dieses Trainings anfordern, um ihren spezifischen Sicherheits- und Compliance-Anforderungen gerecht zu werden.
Sichere und vertrauenswürdige agenutzersteuerte KI: Governance, Identität und Red-Teaming
21 StundenDieses Kurs behandelt Governance, Identitätsmanagement und adversariales Testen für agenutzersteuerte KI-Systeme, wobei der Fokus auf unternehmenssichere Bereitstellungsmuster und praktische Red-Teaming-Techniken liegt.
Dieses von einem Dozenten geleitete Live-Training (online oder vor Ort) richtet sich an fortgeschrittene Praktiker, die Agenten-basierte KI-Systeme in Produktionsumgebungen entwerfen, schützen und bewerten möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Governance-Modelle und -Richtlinien für sichere agenutzersteuerte KI-Bereitstellungen zu definieren.
- Authentifizierungsabläufe für Agenten mit minimalsten Berechtigungen zu entwerfen.
- Zugriffssteuerung, Audit-Logs und Observabilität speziell für autonome Agenten umzusetzen.
- Red-Team-Übungen zu planen und durchzuführen, um Missbrauchsmöglichkeiten, Escalationspfade und Risiken der Datenexfiltration aufzudecken.
- Gemeinsame Bedrohungen für agenutzersteuerte Systeme durch Richtlinien, technische Steuerungsmechanismen und Monitoring abzuwehren.
Format des Kurses
- Interaktive Vorlesungen und Bedrohungsmodellierungs-Workshops.
- Praktische Labs: Identitätsbereitstellung, Richtlinienzumfragen und Adversar-Simulationen.
- Red-Team/Blue-Team-Übungen und Abschlussbewertung des Kurses.
Anpassungsoptionen für den Kurs
- Um ein angepasstes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte.