Einführung in KI-Vertrauen, Risiko und Security Management (KI TRiSM) Schulung
AI TRiSM ist ein sich entwickelnder Bereich, der die Notwendigkeit von Vertrauenswürdigkeit, Risikomanagement und Sicherheit in KI-Systemen anspricht.
Dieser durch den Dozenten geführte Live-Kurs (online oder vor Ort) richtet sich an IT-Professionals der Anfänger- bis Mittelstufe, die ein Verständnis und eine Umsetzung von AI TRiSM in ihren Organisationen erwerben möchten.
Am Ende des Kurses werden die Teilnehmer in der Lage sein:
- Die grundlegenden Konzepte und die Bedeutung der Verwaltung von Vertrauen, Risiko und Sicherheit in KI zu verstehen.
- Risiken, die mit KI-Systemen verbunden sind, zu identifizieren und abzumildern.
- Sicherheitsbestpraktiken für KI umzusetzen.
- Rechtliche Vorgaben und ethische Überlegungen in Bezug auf KI zu verstehen.
- Strategien zur effektiven KI-Governance und -Verwaltung zu entwickeln.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Viel Übung und Praxis.
- Praktische Umsetzung in einer Live-Lab-Umgebung.
Optionen zur Anpassung des Kurses
- Bei Interesse an einem angepassten Training für diesen Kurs, kontaktieren Sie uns bitte um einen Termin auszumachen.
Schulungsübersicht
Verständnis von AI TRiSM
- Einführung in AI TRiSM
- Die Bedeutung von Vertrauen und Sicherheit bei KI
- Übersicht über die Risiken und Herausforderungen der KI
Grundlagen vertrauenswürdiger KI
- Prinzipien vertrauenswürdiger KI
- Sicherstellung von Fairness, Zuverlässigkeit und Robustheit in KIsystemen
- KI-Ethik und Governance
Risk Management in KI
- Identifizierung und Bewertung von KIRisiken
- Strategien zur Mitigation von KIRisiken
- Rahmenwerke für das Risikomanagement in der KI
Sicherheitsaspekte der KI
- KI und Cybersecurity
- Schutz von KIsystemen vor Angriffen
- Sichere Entwicklungsumgebung für KI
Compliance und Data Protection
- Rechtliche Rahmenbedingungen der KI
- Datenschutzgesetze und KI-Compliance
- Verschlüsselung und sichere Speicherung von Daten in KIsystemen
AI-ModellGovernance
- Governancestrukturen für KI
- Überwachung und Prüfung von KImodellen
- Transparenz und Erklärbarkeit in der KI
Implementierung von AI TRiSM
- Beste Praktiken zur Implementierung von AI TRiSM
- Fallstudien und praktische Beispiele
- Werkzeuge und Technologien für AI TRiSM
Zukunft von AI TRiSM
- Entwicklungen in der KI-TRiSM
- Vorbereitung auf die Zukunft der KI im Geschäft
- Kontinuierliches Lernen und Anpassung in AI TRiSM
Zusammenfassung und weitere Schritte
Voraussetzungen
- Ein Verständnis grundlegender AI-Konzepte und -Anwendungen
- Erfahrung im Bereich der Datengestion und IT-Sicherheitsprinzipien ist von Vorteil
Zielgruppe
- IT-Professionelle und -Manager
- Datenwissenschaftler und AI-Entwickler
- Business Führungsmitglieder und Politikgestalter
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
Einführung in KI-Vertrauen, Risiko und Security Management (KI TRiSM) Schulung - Buchung
Einführung in KI-Vertrauen, Risiko und Security Management (KI TRiSM) Schulung - Anfrage
Einführung in KI-Vertrauen, Risiko und Security Management (KI TRiSM) - Beratungsanfrage
Beratungsanfrage
Kommende Kurse
Kombinierte Kurse
AI Governance, Compliance und Sicherheit für Unternehmensführer
14 StundenDiese von einem Trainer durchgeführte Live-Ausbildung in Österreich (Online oder vor Ort) richtet sich an mittelständige Unternehmensführer, die verstehen möchten, wie man KI-Systeme verantwortungsvoll und gemäß der sich ergebenden globalen Rahmenwerke wie dem EU-KI-Gesetz, GDPR, ISO/IEC 42001 und dem US-Exekutivbefehl zur KI sicher einsetzen kann.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Die rechtlichen, ethischen und regulatorischen Risiken beim Einsatz von KI über Departments hinweg zu verstehen.
- Haupt-KI-Governancerahmen (EU-KI-Gesetz, NIST AI RMF, ISO/IEC 42001) zu interpretieren und anzuwenden.
- Sicherheits-, Prüfungs- und Überwachungspolitiken für die Unternehmensausbringung von KI festzulegen.
- Einkaufs- und Verwendungsvorgaben für Drittanbieter- und internen KIs zu entwickeln.
Künstliche Intelligenz Risk Management und Sicherheit im öffentlichen Sektor
7 StundenArtificial Intelligence (AI) bringt neue Dimensionen von betriebswirtschaftlichen Risiken, Governance-Herausforderungen und Cybersecurity-Aussetzungen für Behörden und Abteilungen mit sich.
Diese von einem Trainer geleitete Live-Ausbildung (online oder vor Ort) richtet sich an IT- und Risiko-Fachkräfte des öffentlichen Sektors mit begrenzter Vorerfahrung in KI, die verstehen möchten, wie man KI-Systeme im Kontext der Regierung oder von Regulatory-Bereichen bewerten, überwachen und schützen kann.
Am Ende dieser Ausbildung werden die Teilnehmer in der Lage sein:
- Schlüsselkonzepte des Risikos bei KI-Systemen zu interpretieren, einschließlich Bias, Unvorhersehbarkeit und Modelldrift.
- AI-spezifische Governance- und Auditing-Rahmungen wie NIST AI RMF und ISO/IEC 42001 anzuwenden.
- Cybersecurity-Threats zu erkennen, die KI-Modelle und Datendurchläufe zielen.
- Querschnittliche Risikomanagementpläne und Richtlinienabstimmungen für die Bereitstellung von KI festzulegen.
Format der Veranstaltung
- Interaktive Vorlesung und Diskussion über Verwendungsbeispiele im öffentlichen Sektor.
- Übungen zu AI-Governance-Rahmungen und Richtlinienzuordnung.
- Szenario-basiertes Threat-Modelling und Risikobewertung.
Anpassungsmöglichkeiten des Kurses
- Um eine angepasste Ausbildung für diesen Kurs zu beantragen, kontaktieren Sie uns bitte, um eine Anordnung vorzunehmen.
Sichere und verantwortungsvolle LLM-Anwendungen erstellen
14 StundenDieses von einem Trainer geleitete, live durchgeführte Training in Österreich (online oder vor Ort) richtet sich an fortgeschrittene AI-Entwickler, Architekten und Produktmanager, die Risiken, die mit LLM-gestützten Anwendungen verbunden sind, einschließlich Prompt-Injection, Datendiebstahl und unkontrollierte Ausgaben, identifizieren und mindern möchten. Dabei sollen Sicherheitskontrollen wie Eingabevalidierung, menschliche Überwachung im Prozess (human-in-the-loop) und Ausgabegrenzen integriert werden.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Die Kernanfälligkeiten von LLM-basierten Systemen zu verstehen.
- Sichere Designprinzipien für die Architektur von LLM-Anwendungen anzuwenden.
- Werkzeuge wie Guardrails AI und LangChain zur Validierung, Filterung und Sicherheit zu verwenden.
- Techniken wie Sandboxing, Red-Teaming und menschliche Überprüfung im Prozess (human-in-the-loop) in produktionsfähige Pipelines zu integrieren.
Cybersecurity in AI-Systemen
14 StundenDieses von einem Trainer durchgeführte, lebendige Training (online oder vor Ort) richtet sich an fortgeschrittene AI- und Cybersecurity-Profi-nale, die die Sicherheitslücken speziell für AI-Modelle und -Systeme verstehen und adressieren möchten. Insbesondere in stark regulierten Branchen wie Finanzwesen, Datengovernance und Beratung sind diese Kenntnisse von großer Bedeutung.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Die Arten von feindlichen Angriffen auf AI-Systeme und Methoden zur Verteidigung gegen diese zu verstehen.
- Techniken zur Verhärterung von Modellen anzuwenden, um Machine-Learning-Pipelines sicherzustellen.
- Datenintegrität und -sicherheit in Machine-Learning-Modellen zu gewährleisten.
- Regulierungsanforderungen im Zusammenhang mit der AI-Sicherheit zu bewältigen.
Einführung in AI Security und Risk Management
14 StundenDiese von einem Dozenten angeführte Live-Ausbildung in Österreich (online oder vor Ort) richtet sich an Einsteiger in der IT-Sicherheit, Risikomanagement und Compliance. Teilnehmer lernen grundlegende AI-Sicherheitskonzepte, Bedrohungsspektren sowie globale Rahmenwerke wie NIST AI RMF und ISO/IEC 42001 kennen.
Am Ende der Ausbildung können die Teilnehmer:
- Die einzigartigen Sicherheitsrisiken, die durch AI-Systeme eingeführt werden, verstehen.
- Bedrohungsspektren identifizieren wie feindliche Angriffe, Datensalat und Modellumkehrung.
- Grundlegende Governance-Modelle anwenden, wie das NIST AI Risk Management Framework.
- Die Nutzung von AI mit sich entwickelnden Standards, Compliance-Richtlinien und ethischen Prinzipien ausrichten.
OWASP GenAI Security
14 StundenBasierend auf den neuesten OWASP GenAI Security Project-Richtlinien lernen Teilnehmer, AI-spezifische Bedrohungen zu identifizieren, zu bewerten und abzumildern, indem sie hands-on Übungen und reale Szenarien durchführen.
Datenschutz Machine Learning
14 StundenDieses von einem Trainer geleitete Live-Seminar (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die Techniken wie federated learning, sicherer Multiparty-Rechnen, homomorphe Verschlüsselung und differentielle Datenschutz in realen maschinellem-Lern-Pipelines implementieren und evaluieren möchten.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Schlüssige datenschützende Techniken im Maschinenlernen zu verstehen und zu vergleichen.
- Federated Learning-Systeme mit Open-Source-Frameworks zu implementieren.
- Differentiellen Datenschutz für sichere Datenaustausch und Modelltraining anzuwenden.
- Verschlüsselungstechniken und sicherer Rechnen zur Schutz von Eingaben und Ausgaben des Modells zu nutzen.
Red Teaming AI Systems: Offensive Security for ML Models
14 StundenDieser von einem Dozenten durchgeführte Live-Workshop (Online oder vor Ort) richtet sich an fortgeschrittene Sicherheitsexperten und ML-Spezialisten, die Simulation von Angriffen auf KI-Systeme, die Erkennung von Schwachstellen und die Steigerung der Robustheit bereitgestellter AI-Modelle wünschen.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Realitätsnahe Bedrohungen für maschinelles Lernen zu simulieren.
- Angreiferbeispiele zu generieren, um die Modellrobustheit zu testen.
- Die Angriffsoberfläche von KI-APIS und -Pipelines zu bewerten.
- Strategien für Rot-Teams in AI-Ausbauumgebungen zu entwerfen.
Securing Edge AI und eingebettete Intelligenz
14 StundenDiese von einem Trainer geleitete Live-Ausbildung in Österreich (Online oder vor Ort) richtet sich an mittelsichverdienten Ingenieure und Sicherheitsexperten, die AI-Modelle am Rande gegen Bedrohungen wie Manipulation, Datenleckage, feindliche Eingaben und physische Angriffe schützen möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken bei Edge-AI-Deployments zu identifizieren und einzuschätzen.
- Manipulationsschutz und verschlüsselte Inferenztechniken anzuwenden.
- Edge-deployierte Modelle abzuhärten und Datenpipelines zu sichern.
- Bedrohungsminderungsstrategien für eingebaute und eingeschränkte Systeme umzusetzen.
Securing AI Models: Threats, Attacks, and Defenses
14 StundenDieser von einem Lehrer durchgeführte Live-Workshop (vor Ort oder online) richtet sich an fortgeschrittene Fachleute der maschinellen Lernprozesse und der Cyber-Sicherheit, die sich mit Bedrohungen gegen AI-Modelle auseinandersetzen möchten. Dabei werden sowohl konzeptionelle Rahmenstrukturen als auch praktische Verteidigungsmaßnahmen wie robuste Trainingsmethoden und differenzierende Datenschutztechniken abgedeckt.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- AI-spezifische Bedrohungen zu identifizieren und einzustufen, wie zum Beispiel feindliche Angriffe, Inversionsanfälle und Vergiftung.
- Werkzeuge wie das Adversarial Robustness Toolbox (ART) einsetzen, um Angriffe zu simulieren und Modelle zu testen.
- Praktische Verteidigungsmaßnahmen anzuwenden, darunter feindliches Training, Rauscheinblendung und datenschutzfreundliche Techniken.
- Bedrohungsbewusste Bewertungsstrategien für Modelle in Produktionsumgebungen zu entwerfen.
Sicherheit und Datenschutz in TinyML-Anwendungen
21 StundenTinyML ist ein Ansatz, um maschinelles Lernen auf energieeffizienten, ressourcenbeschränkten Geräten am Netzwerkrand einzusetzen.
Diese von einem Trainer geführte Live-Training (online oder vor Ort) richtet sich an fortgeschrittene Fachleute, die TinyML-Pipelines sichern und Datenschutzmechanismen in Edge-AI-Anwendungen implementieren möchten.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein:
- Sicherheitsrisiken identifizieren, die speziell für das TinyML-Inferenz auf Geräten gelten.
- Datenschutzmechanismen für Edge-AI-Bereitstellungen implementieren.
- TinyML-Modelle und eingebettete Systeme gegen feindselige Bedrohungen schützen.
- Best Practices für sichere Datenverarbeitung in ressourcenbeschränkten Umgebungen anwenden.
Kursformat
- Unterhaltsame Vorlesungen, die durch Expertendiskussionen ergänzt werden.
- Praktische Übungen mit Fokus auf realistische Bedrohungsszenarien.
- Praktische Implementierung unter Verwendung von eingebetteter Sicherheit und TinyML-Tooling.
Kursanpassungsoptionen
- Organisationen können eine angepasste Version dieses Trainings anfordern, um ihren spezifischen Sicherheits- und Compliance-Anforderungen gerecht zu werden.
Sichere und vertrauenswürdige agenutzersteuerte KI: Governance, Identität und Red-Teaming
21 StundenDieses Kurs behandelt Governance, Identitätsmanagement und adversariales Testen für agenutzersteuerte KI-Systeme, wobei der Fokus auf unternehmenssichere Bereitstellungsmuster und praktische Red-Teaming-Techniken liegt.
Dieses von einem Dozenten geleitete Live-Training (online oder vor Ort) richtet sich an fortgeschrittene Praktiker, die Agenten-basierte KI-Systeme in Produktionsumgebungen entwerfen, schützen und bewerten möchten.
Am Ende dieses Trainings werden die Teilnehmer in der Lage sein:
- Governance-Modelle und -Richtlinien für sichere agenutzersteuerte KI-Bereitstellungen zu definieren.
- Authentifizierungsabläufe für Agenten mit minimalsten Berechtigungen zu entwerfen.
- Zugriffssteuerung, Audit-Logs und Observabilität speziell für autonome Agenten umzusetzen.
- Red-Team-Übungen zu planen und durchzuführen, um Missbrauchsmöglichkeiten, Escalationspfade und Risiken der Datenexfiltration aufzudecken.
- Gemeinsame Bedrohungen für agenutzersteuerte Systeme durch Richtlinien, technische Steuerungsmechanismen und Monitoring abzuwehren.
Format des Kurses
- Interaktive Vorlesungen und Bedrohungsmodellierungs-Workshops.
- Praktische Labs: Identitätsbereitstellung, Richtlinienzumfragen und Adversar-Simulationen.
- Red-Team/Blue-Team-Übungen und Abschlussbewertung des Kurses.
Anpassungsoptionen für den Kurs
- Um ein angepasstes Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte.