Für Sicherheitsverantwortliche hat sich die Diskussion um künstliche Intelligenz rasant verändert – von Experimenten hin zu Erwartungen. KI-Systeme sind nicht mehr auf Innovationslabore oder Pilotprojekte mit begrenztem Umfang beschränkt. Sie werden zunehmend in Kerngeschäftsprozesse, Sicherheitsabläufe und Entscheidungsworkflows eingebunden.
Diese Realität spiegelt sich deutlich im kürzlich veröffentlichten Cybersecurity Framework Profile for Artificial Intelligence (NIST IR 8596, Initial Preliminary Draft)des NIST deutlich wider. Anstatt ein völlig neues KI-Sicherheitsframework einzuführen, nutzt es das bestehende Cybersecurity Framework (CSF) 2.0, was signalisiert, dass KI-Risiken mittlerweile untrennbar mit dem Cyber-Risikomanagement von Unternehmen verbunden sind.
Für CISOs, die für die Abstimmung von Sicherheitsprogrammen mit Standards, Aufsichtsbehörden und den Risikoerwartungen der Unternehmensleitung verantwortlich sind, bietet dieser Entwurf wichtige Hinweise darauf, in welche Richtung sich die KI-Sicherheit – und die Cybersicherheit im weiteren Sinne – entwickelt.
KI ist nicht mehr nur ein Randthema. Jetzt ist sie Teil des zentralen Risikomodells.
Eines der wichtigsten Signale im NIST-Entwurf ist, was er Annahme. Der Entwurf richtet sich an Organisationen, die bereits KI einsetzen oder dies in Kürze tun werden. Er stellt nicht die Frage, ob KI in die Umgebung gehört, sondern konzentriert sich darauf, wie KI-Systeme gesteuert, gesichert, überwacht und wiederhergestellt werden sollten, wenn etwas schiefgeht.
Dies ist wichtig, weil es KI von einem Zukunftsthema zu einem aktuellen Angriffspunkt macht. Aus Sicht eines CISO ist die Konsequenz klar: KI-Systeme müssen in bestehende Risikoregister, Bedrohungsmodelle und Kontrollrahmen integriert und nicht als Sonderfälle behandelt werden.
Das NIST unterstreicht dies, indem es Überlegungen zur KI-Sicherheit in allen sechs CSF-Funktionen organisiert: Steuern, Identifizieren, Schützen, Erkennen, Reagieren und Wiederherstellen. Mit anderen Worten: Von KI wird erwartet, dass sie denselben strengen Anforderungen unterliegt wie jedes andere missionskritische System.
Das eigentliche Thema: Vertrauen, nicht Werkzeuge
Das Dokument behandelt zwar ein breites Spektrum an KI-bezogenen Bedrohungen – von feindlichen Eingaben bis hin zu Datenvergiftung –, doch liegt sein Schwerpunkt nicht auf bestimmten KI-Techniken, sondern auf Vertrauen.
Das NIST betont wiederholt die Notwendigkeit für:
- Integritätsprüfung
- Herkunft und Rückverfolgbarkeit
- Authentifizierung und Autorisierung
- Rechenschaftspflicht und Überprüfbarkeit
Dies sind grundlegende Prinzipien der Cybersicherheit, keine KI-spezifischen Innovationen. Ihre Bedeutung lässt darauf schließen, dass die Zukunft der KI-Sicherheit nicht allein durch immer komplexere Modelle bestimmt wird, sondern durch die Stärke der Vertrauensinfrastruktur, die sie umgibt.
Für CISOs ist dies eine wichtige Neukalibrierung. Es bedeutet, dass das KI-Risikomanagement weniger davon abhängt, jedes interne Detail eines Modells zu verstehen, sondern vielmehr davon, sicherzustellen, dass KI-Systeme während ihres gesamten Lebenszyklus vertrauenswürdig, überprüfbar und kontrollierbar sind.
KI-Agenten werden als erstklassige Cyber-Akteure behandelt.
Der vielleicht zukunftsweisendste Aspekt des Entwurfs ist die Art und Weise, wie KI-Agenten und -Dienste behandelt werden. Das NIST beschreibt KI-Systeme als autonome Einheiten, die in der Lage sind, mit Daten, Systemen und sogar anderen Agenten zu interagieren, manchmal mit Maschinengeschwindigkeit und ohne direkte menschliche Intervention.
Daher betont der Entwurf, dass KI-Agenten Folgendes benötigen:
- eindeutige, rückverfolgbare Identitäten
- Zugangsdaten
- definierte Berechtigungen
- kontinuierliche Überwachung und Protokollierung
Dies ist eine subtile, aber tiefgreifende Veränderung. KI-Agenten werden nicht mehr nur als Anwendungen betrachtet, sondern als Akteure innerhalb der Umgebung, die in der Lage sind, Entscheidungen zu treffen und sofort Maßnahmen zu ergreifen.
Für CISOs bedeutet dies, dass die KI-Sicherheit mit den seit langem bestehenden Herausforderungen im Bereich Maschinenidentität und Zero Trust in Einklang gebracht wird. Und es wird deutlich, dass KI die Probleme im Zusammenhang mit dem Identitätsmanagement nicht beseitigt, sondern sogar noch verstärkt.
Identitäts- und Zugriffsmanagement werden stillschweigend zu einer Grundlage für die KI-Sicherheit.
Innerhalb der Schutzfunktion des CSF tauchen Identitäts- und Zugriffskontrolle als wiederkehrende Themen für KI-Systeme auf. Das NIST betont, dass KI-Dienste und -Agenten nach Prinzipien wie geringstmögliche Berechtigungen, starke Authentifizierung und kontinuierliche Verifizierung arbeiten müssen.
Dies spiegelt eine zunehmende Realität wider: KI-Systeme handeln zunehmend im Namen von Benutzern, Sicherheitsteams und Organisationen selbst. Die Verwaltung, wer oder was auf Daten zugreifen, Befehle erteilen oder Aktionen auslösen kann, wird zu einem zentralen Faktor für die Reduzierung von KI-bedingten Risiken.
Aus Sicht der Standards deutet dies darauf hin, dass identitätsorientierte Sicherheitsmodelle eine entscheidende Rolle in der KI-Governance spielen werden, insbesondere da KI immer autonomer und vernetzter wird.
KI-Lieferkette: Größer als viele erwarten
Das NIST erweitert außerdem die Definition des Begriffs „Risiko in der Lieferkette“ um folgende Punkte:
- Trainingsdaten
- Modelle und Eingabeaufforderungen
- Inferenzdienste
- APIs und KI-Anbieter von Drittanbietern
Wichtig ist, dass der Entwurf die Datenherkunft mit software gleichstellt und anerkennt, dass kompromittierte oder undurchsichtige Daten das Vertrauen ebenso wirksam untergraben können wie anfälliger Code.
Für CISOs, die mit dem Management von Risiken software vertraut sind, ist dies eine bekannte Herausforderung, jedoch in größerem Umfang und mit höherer Komplexität. KI führt zu mehr Abhängigkeiten, mehr externen Diensten und mehr undurchsichtigen Komponenten, die alle bei der Risikobewertung und beim Lieferantenmanagement berücksichtigt werden müssen.
Zero Trust beschränkt sich nicht nur auf Menschen, und KI macht dies unvermeidlich.
Im gesamten Entwurf verweist das NIST auf Zero-Trust-Konzepte wie kontinuierliche Verifizierung, geringstmögliche Berechtigungen und adaptive Kontrollen. Bemerkenswert ist, dass diese Prinzipien nicht nur auf Benutzer, sondern auch auf KI-Systeme selbst angewendet werden.
KI-Agenten verhalten sich anders als Menschen oder herkömmliche Anwendungen. Sie arbeiten kontinuierlich, generieren dynamisch Ergebnisse und können Systeme schnell beeinflussen. Dieses Verhalten macht statische Vertrauensannahmen unhaltbar.
Die Konsequenz für CISOs ist klar: Zero-Trust-Architekturen müssen auf KI-Systeme ausgeweitet werden, wenn Unternehmen die Transparenz und Kontrolle in KI-gestützten Umgebungen aufrechterhalten wollen.
Die Zukunft von KI und Cybersicherheit
Insgesamt lässt der Entwurf des NIST Cyber AI Profile mehrere klare Trends erkennen:
- Die KI-Sicherheit wird in bestehende Cybersicherheits- und Risikorahmen integriert und nicht separat verwaltet.
- Vertrauen, Identität und kryptografische Sicherheit bilden die Grundlage für die KI-Governance.
- KI-Agenten werden als autonome Cyber-Akteure behandelt, die strenge Identitätskontrollen erfordern.
- Die Transparenz der Lieferkette wird sich nicht nur auf software, sondern auch auf Modelle und Daten ausweiten.
- Zero-Trust-Prinzipien werden zunehmend sowohl für Maschinen als auch für Menschen gelten.
Es ist wichtig zu beachten, dass es sich hierbei um einen ersten vorläufigen Entwurf handelt und das NIST aktiv um Feedback bittet. Die Details werden sich noch weiterentwickeln. Die Prioritäten können sich verschieben.
Die Richtung ist jedoch bereits klar. KI und Cybersicherheit konvergieren um bekannte – aber zunehmend wichtige – Prinzipien wie Vertrauen, Identität und Lebenszyklusmanagement.
Für Sicherheitsverantwortliche stellt sich nicht mehr die Frage, ob KI in das Cybersicherheitsprogramm gehört. Die Frage ist vielmehr, ob das Programm für KI bereit ist.
Zwischen den Zeilen wirft dieser Entwurf fünf Fragen auf, die CISOs nicht ignorieren können:
- Wo ist KI bereits in unserer Umgebung integriert – einschließlich Tools und Diensten von Drittanbietern?
- Können wir die Handlungen unserer KI-Systeme und -Agenten identifizieren und nachverfolgen?
(Wenn ein KI-System autonom handelt, können wir das nachweisen?) - Wie werden Identität, Zugriff und Berechtigungen für KI heute durchgesetzt?
(Und sind diese Kontrollen für Maschinen und nicht nur für Menschen konzipiert?) - Verstehen wir die Herkunft und Integrität unserer KI-Modelle und Daten?
- Wenn ein KI-System ausfällt oder kompromittiert wird, wissen wir dann, wie wir reagieren und es wiederherstellen können?
Der Entwurf steht bis zum 30. Januar 2026 zur öffentlichen Stellungnahme bereit, und das NIST bittet um Rückmeldungen von Sicherheits- und Risikoverantwortlichen.