Vielen Dank für die Zusendung Ihrer Anfrage! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Vielen Dank, dass Sie Ihre Buchung abgeschickt haben! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Schulungsübersicht
Grundlagen: Bedrohungsszenarien für agenutzersteuerte KI
- Arten von agenutzersteuerten Bedrohungen: Missbrauch, Escalation, Datenverlust und Risiken in der Lieferkette
- Angreiferprofile und Angriffsfähigkeiten, die spezifisch für autonome Agenten sind
- Zuordnung von Assets, Vertrauensgrenzen und kritischen Kontrollpunkten für Agenten
Governance, Richtlinien und Risikomanagement
- Governance-Frameworks für agenutzersteuerte Systeme (Rollen, Verantwortlichkeiten, Genehmigungsschleusen)
- Richtlinienentwurf: zulässige Nutzung, Escalationsregeln, Datenaufbereitung und Nachvollziehbarkeit
- Compliance-Überlegungen und Beweissammlung für Audits
Identitäts- und Authentifizierungsmanagement für Agenten
- Entwurf von Identitäten für Agenten: Service-Accounts, JWTs und kurzfristige Anmeldeinformationen
- Zugangsmodelle mit minimalsten Berechtigungen und just-in-time-Anmeldeinformationen
- Identitätszyklus, Rotation, Delegation und Rückzug von Anmeldeinformationen
Zugangskontrolle, Geheimhaltung und Datenschutz
- Fein granulare Zugangssteuerungsmodelle und fähigkeitsbasierte Muster für Agenten
- Geheimhaltungsmanagement, Verschlüsselung bei der Übertragung und im Ruhezustand sowie Dataminimierung
- Schutz sensibler Wissensquellen und personenbezogener Daten (PII) vor unbefugtem Zugang durch Agenten
Observabilität, Auditing und Vorfallreaktion
- Entwurf von Telemetrie für Agentenverhalten: Absichtstracing, Kommandologs und Herkunftsnachweise
- SIEM-Integration, Alarmierungsschwellen und forensische Bereitschaft
- Runbooks und Playbooks für agentenbezogene Vorfälle und Eindämmung
Red-Teaming von agenutzersteuerten Systemen
- Planung von Red-Team-Übungen: Bereich, Regelungen und sichere Ausfallvorsorge
- Adversariale Techniken: Eingabeinjektion, Missbrauch von Tools, Manipulation der Denkprozesse und API-Missbrauch
- Durchführung kontrollierter Angriffe und Messung von Exposition und Auswirkungen
Verfestigung und Abwehrmaßnahmen
- Technische Steuerungsmechanismen: Reaktionsdrosselung, Fähigkeitssteuerung und Sandboxing
- Richtlinien- und Orchestrierungssteuerungen: Genehmigungsabläufe, menschliche Überwachung und Governance-Hooks
- Verteidigung auf Modell- und Eingabe-Ebene: Eingabevalidierung, Kanonisierung und Ausgabefilter
Umsetzung sicherer Agentenbereitstellungen
- Bereitstellungsmuster: Staging, Canary-Test und schrittweise Einführung für Agenten
- Änderungsmanagement, Testpipelines und vorbereitete Sicherheitsprüfungen
- Querfunktionaler Governance: Sicherheit, Recht, Produkt- und Betriebsabläufe
Schlussprojekt: Red-Team / Blue-Team-Übung
- Durchführung eines simulierten Red-Team-Angriffs gegen eine sandboxierte Agentenumgebung
- Verteidigung, Erkennung und Beseitigung als Blue-Team unter Verwendung von Steuerungen und Telemetrie
- Vorstellung der Ergebnisse, Beseitigungsplan und Aktualisierung der Richtlinien
Zusammenfassung und weitere Schritte
Voraussetzungen
- Fest verankerte Kenntnisse in Sicherheitsingenieurwesen, Systemadministration oder Cloud-Operationen
- Vertrautheit mit KI/ML-Konzepten und dem Verhalten großer Sprachmodelle (LLM)
- Erfahrung im Bereich Identitäts- und Zugriffsmanagement (IAM) sowie sicherer Systemdesign
Zielgruppe
- Sicherheitsingenieure und Red-Teamer
- KI-Betriebs- und Plattform-Ingenieure
- Konformitätsbeauftragte und Risikomanager
- Ingenieurleiter, die für Agentenbereitstellungen verantwortlich sind
21 Stunden