NIS2 & EU AI Act · Sicherheits-Governance

Cybersicherheits-Governance — KI-Sicherheit strukturell verankert.

KI-Systeme haben besondere Sicherheitsanforderungen, die über klassische IT-Sicherheit hinausgehen. Der EU AI Act fordert Genauigkeit, Robustheit und Cybersicherheit (Art. 15). NIS2 fordert umfassende Risikomaßnahmen für Einrichtungen in kritischen Sektoren. EAB verbindet beide.

Adversarielle Angriffe, Data Poisoning, Model Inversion, Halluzinationen in kritischen Entscheidungen — KI-spezifische Sicherheitsrisiken brauchen KI-spezifische Governance. EAB strukturiert diese Anforderungen im Governance-Record.

Art. 15 AI Act Robustheit NIS2 Risikomaßnahmen KI-spezifische Angriffsvektoren
Rechtsgrundlagen
2 Regelwerke
Art. 15 EU AI Act (Robustheit) + Art. 21 NIS2 (Risikomaßnahmen) — integriert in einem Record.
KI-Angriffsvektoren
Strukturiert
Adversarial Examples, Data Poisoning, Model Inversion — alle im Sicherheitsprofil erfasst.
Nachweis-Status
Live
Sicherheits-Nachweise mit Ablaufdaten verfolgt — Penetrationstests, Robustheitstests, Übungszyklen.
Integration
Vollständig
Sicherheits-Record ist Teil des Governance-Records — sichtbar für Supervisor und Prüfer.
KI-Sicherheits-Anforderungen

Sechs Sicherheits-Dimensionen für KI-Systeme.

Art. 15 AI Act

Genauigkeit, Robustheit und Cybersicherheit

Hochrisiko-KI-Systeme müssen gegenüber Fehlern, Störungen und Angriffen robust sein. EAB strukturiert den Nachweis der Robustheit: Genauigkeits-Metriken, Adversarial-Robustheit-Tests, Fehlertoleranz-Mechanismen. Diese Nachweise sind Teil des Anhang-IV-Records und des Cybersicherheits-Governance-Records.

Adversarielle Angriffe

KI-spezifische Angriffsvektoren

Adversarial Examples (manipulierte Inputs, die das Modell täuschen), Data Poisoning (Manipulation der Trainingsdaten), Model Extraction (Reverse-Engineering des Modells), Membership Inference (Rückschluss auf Trainingsdaten) — EAB erfasst, welche dieser Vektoren für ein System relevant sind und welche Gegenmaßnahmen implementiert sind.

Halluzinationen

LLM-spezifische Sicherheitsrisiken

Large Language Models haben spezifische Sicherheitsrisiken: Halluzinationen in kritischen Informationsbereichen, Prompt Injection, Jailbreaks. EAB strukturiert Gegenmaßnahmen und Monitoring-Anforderungen für LLM-basierte Systeme in Hochrisiko-Anwendungsbereichen.

Supply Chain Security

KI-Modell-Lieferkette sichern

Die Sicherheit vortrainierter Modelle, Foundation Models und KI-APIs — Supply Chain Security für KI. EAB verknüpft die NIS2-Lieferketten-Sicherheitsbewertung mit den KI-Dienstleistern im System-Record: Wer liefert das Modell, welche Sicherheitsgarantien gibt der Anbieter?

Penetrationstests

KI-System-Penetrationstests

Penetrationstests für KI-Systeme gehen über klassische IT-Pentests hinaus: adversarielle Robustheitstests, Bias-Angriffs-Simulations, Datenexfiltrations-Szenarien. EAB trackt Pentest-Zyklen, Ergebnisse und Remediation-Status als Nachweis.

Monitoring

Kontinuierliches Sicherheits-Monitoring

Anomalie-Erkennung in KI-Eingaben und -Ausgaben, Drift-Monitoring für Modellverhalten, Alert-Prozesse für unerwartete System-Outputs. Für Hochrisiko-Systeme nach Art. 9 AI Act und NIS2 ist kontinuierliches Monitoring eine Kernpflicht — EAB dokumentiert Monitoring-Implementierung und -Ergebnisse.

Cybersicherheits-Governance

KI-Sicherheit — strukturell verankert, nicht nachträglich angehängt.

Art. 15 AI Act Robustheit und NIS2 Risikomaßnahmen im selben Governance-Record. KI-spezifische Sicherheitsanforderungen strukturiert erfasst — für Supervisoren, Prüfer und Regulatoren.

EU-gehostet · Verankert in CELEX 32024R1689

Kontakt aufnehmen
Mehr Informationen anfordern

Erzählen Sie uns von Ihrer Organisation und Ihrem Anliegen. Wir melden uns mit den relevanten Informationen.