Der Marktführer im Bereich Digital Trust für das Zeitalter der KI und Quantencomputer.   Entdecken Sie, wie Keyfactor dies Keyfactor .

  • Startseite
  • Blog
  • AI
  • Absicherung von KI-Agenten: Warum Unternehmen sich darum kümmern sollten

Absicherung von KI-Agenten: Warum Unternehmen sich darum kümmern sollten

AI

Im ersten Teil dieser Blogserie - Die nächste Sicherheitsgrenze: Sicherung der Zukunft der agentenbasierten KI mit digitalem Vertrauen - haben wir den Aufstieg der agentenbasierten KI und die grundlegende Rolle vorgestellt, die digitales Vertrauen spielen muss, wenn diese intelligenten Agenten betriebliche Unabhängigkeit erlangen.

Im zweiten Teil gehen wir näher darauf ein, warum die Absicherung von Agenten-KI für Unternehmen heute so wichtig ist - und was auf dem Spiel steht, wenn es uns nicht gelingt, diese transformative neue Klasse von KI zu schützen.

Was ist Agentic AI - und warum der Hype?

Wir stehen am Beginn einer neuen Ära der künstlichen Intelligenz: Agentische KI. Im Gegensatz zu herkömmlichen KI-Systemen, die einfach auf Eingaben reagieren, bezieht sich die agentenbasierte KI auf autonome Agenten, die in der Lage sind:

  • Entscheidungen in Echtzeit treffen
  • Selbstständig Aktionen initiieren
  • Nahtloser Betrieb über APIs, Cloud-Dienste und Unternehmensdaten-Ökosysteme

Diese Entwicklung führt KI von der Automatisierung zu echter Autonomie - und sie erschließt nie dagewesene Effizienz und Skalierbarkeit in Branchen wie Lieferkettenmanagement, Kundenservice, Finanzen und Cybersicherheit.

Die Chance - und das Risiko

Agentische KI bietet enorme Möglichkeiten, führt aber auch zu neuen neue Sicherheitsherausforderungen:

  • Verwischung der Identitätsgrenzen zwischen menschlichen Nutzern, Maschinen und digitalen Agenten
  • Vergrößerung der Angriffsflächen über vernetzte Systeme und APIs
  • Beeinträchtigung der Datenintegrität und des Vertrauens wenn autonome Agenten ausgenutzt oder manipuliert werden

Ohne robuste digitale Vertrauensrahmen, die Identitätsüberprüfung, Verhaltensüberwachung und sichere Orchestrierung umfassen, könnten agentenbasierte KI-Systeme zu einem neuen Vektor für Cyberangriffe, Datenschutzverletzungen und Betriebsausfälle werden.

Der Aufstieg der agentenbasierten KI signalisiert sowohl Innovation als auch Störung. Sie wird die Art und Weise, wie Unternehmen funktionieren, verändern - und neue Sicherheits- und Compliance-Risiken mit sich bringen. Investoren und PE-Firmen drängen Unternehmen zur Einführung von Agentic AI mit dem Ziel, greifbare finanzielle Vorteile zu erzielen, sei es in Form von betrieblicher Effizienz oder Kosteneinsparungen. 

Zum Beispiel, Gartner prognostiziert, dass bis 2029durch den Einsatz von KI-Agenten die Betriebskosten für gängige Kundendienstprobleme um bis zu 30 % gesenkt werden könnten. Diese Schätzungen sind signifikant! Laut Gartners 2025 Cybersecurity Innovations Surveygaben mehr als die Hälfte der Befragten an, dass sie bereits benutzerdefinierte KI-Agenten eingesetzt haben (53%). Der Ansatz von Keyfactorzur Sicherung dieser KI-Agenten in großem Maßstab bietet sowohl einen strategischen Vorteil als auch einen Weg zur Risikominderung.

MCP (Modell-Kontext-Protokoll) wird wahrscheinlich die universelle Standardschnittstelle zwischen KI, Daten und Anwendungen werden. Es wird verwendet, um Modelle von der software zu entkoppeln, mit der sie interagieren, um verschiedene Systeme zu koordinieren und um sich schnell anzupassen. MCP ist jedoch noch nicht ausgereift. Vielen Client-Implementierungen fehlt die robuste Authentifizierung und Autorisierung, die für die Sicherheit in Unternehmen erforderlich ist - Funktionen wie rollenbasierte Zugriffskontrolle (RBAC) und automatischer Wechsel der Anmeldeinformationen.

Die meisten aktuellen MCP-Implementierungen nutzen OAuth, aber oft mit festen Schlüsseln oder gemeinsam genutzten Geheimnissen anstelle von stärkeren, dauerhafteren Anmeldedaten. Wir glauben, dass MCP-Clients auf dem Weg sind, eine zertifikatsbasierte Authentifizierung zu unterstützen. 

Sicherung der agentenbasierten KI: Warum PKI ein wichtiger Teil der Grundlage ist

Ohne starke Identität, Authentifizierung und Datenintegrität kann KI-Agenten Schwachstellen verursachen, anstatt einen Mehrwert zu bieten. Die Sicherung von KI-Agenten erfordert vier wichtige Dinge:

  • Starke Identitäten
  • Fein abgestufte Zugriffskontrollen
  • Hoher Grad an Überprüfbarkeit (d. h., SIEMs können nach Anomalien suchen)
  • Ein Verfahren zum Entfernen des Zugangs, wenn ein KI-Agent sich nicht wie erwartet verhält

Nach Angaben von Cisco, waren identitätsbasierte Angriffe der häufigste Angriffsvektor im Jahr 2024, Sie machen 60 % aller Vorfälle aus - ein deutliches Warnsignal für den Übergang zu zunehmend autonomen und vernetzten KI-Agenten.

Für Unternehmen, die sich mit der Frage beschäftigen, wie sie den Zugriff auf Agentic AI sichern können, bieten PKI und zertifikatsbasierte Authentifizierung eine robuste Lösung:

  • Gegenseitiges TLS (mTLS) ermöglicht es den Agenten, sich gegenseitig zu authentifizieren, bevor sie Daten austauschen
  • Kurzlebige Zertifikate geben kurzlebigen Agenten zeitgebundenes Vertrauen
  • Hardware Schlüssel Schutz von Agenten, die in physische Systeme wie Drohnen oder Fahrzeuge eingebettet sind

Letztendlich geht es bei der Sicherung des KI-Zugangs für Agenten darum, auf der Identitätsebene mit bewährten Sicherheitsstandards Vertrauen aufzubauen. Die PKI wird zu einem der wichtigsten Bereiche für Unternehmen. Zertifikate, die von einer PKI ausgestellt werden, bieten bewährte Antworten - sie werden bereits in großem Umfang in der Unternehmenssicherheit für Maschinenidentitäten, IoT, Workload-Authentifizierung und Zero Trust Frameworks verwendet. 

Da die Identitätsebene für die Sicherung der agentenbasierten KI von zentraler Bedeutung ist, geht es auch um Vertrauen - nicht nur zwischen Systemen, sondern auch zwischen Menschen und den Technologien, von denen sie abhängig sind. 

Agentische KI: Diese Fragen müssen Sie sich stellen

Unternehmen müssen Sicherheitsrahmen, Governance-Richtlinien und Geschäftsprioritäten aufeinander abstimmen, um zu gewährleisten, dass Agentic AI verantwortungsvoll und sicher skalieren kann. 

Die folgenden drei Schwerpunktbereiche skizzieren, wie diese Angleichung in Angriff genommen werden kann, wobei sowohl aktuelle Trends als auch Herausforderungen aus der Praxis berücksichtigt werden.

Schwerpunktbereich Nr. 1: Agenten-KI ist im Kommen und muss skaliert werden

Agentische KI erfordert Autonomie in großem Umfang, um die Vorteile von Effizienz und Kosteneinsparungen zu realisieren. 

Diese Agenten werden bereits in Umgebungen eingesetzt, in denen viel auf dem Spiel steht, und die Unternehmen müssen sich die Frage stellen:

  • Wie messen wir den ROI von agentenbasierter KI - und anhand welcher KPIs?
  • Gibt es einen klaren Geschäftsverantwortlichen für KI-Risiken, Governance und Leistung?
  • Können wir unseren Vorstand vertrauensvoll über unsere KI-Bereitschaft und unsere Roadmap informieren?

Laut Chris Hickman, CSO Keyfactor , experimentieren viele Unternehmen bereits fleißig, haben sich aber noch nicht mit den Anforderungen an die Infrastruktur auseinandergesetzt, die mit der Einführung von Agentic AI verbunden sind. Es ist von entscheidender Bedeutung, die anfänglichen Kosten und die langfristige Wartung der gesamten Lösung im großen Maßstab zu verstehen, bevor man etwas in der Produktion einsetzt.

"Die Realität ist, dass die Verwaltung von Vertrauen, Identität und Lebenszyklus exponentiell komplexer wird, sobald man anfängt, Tausende von Agenten über APIs und Cloud-Umgebungen hinweg einzusetzen."

Schwerpunktbereich Nr. 2: Das Innovationstempo bei der agentenbasierten KI erfordert bewährte Sicherheitsprinzipien

Angesichts der rasanten Innovation besteht die Gefahr, dass die Sicherheit in den Hintergrund gedrängt wird. Und doch können autonome Agenten im Falle einer Kompromittierung echten Schaden anrichten, und zwar viel schneller und mit weniger Transparenz als bei herkömmlichen Workloads.

Hier sind einige der wichtigsten Fragen, die Sie sich stellen sollten:

  • Beinhaltet unsere ganzheitliche Unternehmensstrategie zur Sicherung von KI-Agenten kryptografische Identität, Sichtbarkeit und Überwachung sowie Governance?
  • Wie sieht unser Plan für die Durchführung erfolgreicher Pilotprojekte aus, ohne die Sicherheit zu gefährden?
  • Haben wir einen Leitfaden für größere KI-Vorfälle oder Fehlerszenarien?

Laut Hickman müssen Unternehmen Sicherheitskontrollen einführen, die die Innovation nicht bremsen, aber dennoch Überprüfbarkeit, Vertrauen und Widerstandsfähigkeit gewährleisten. 

"PKI, gegenseitiges TLS und zertifikatsbasierte Authentifizierung sind bewährte Methoden, die für die Sicherung nicht-menschlicher Identitäten in großem Maßstab funktionieren. Und sie sind genau das, was Agentic AI braucht."

Er fügt hinzu, dass es eine tickende Zeitbombe ist, sich auf gemeinsam genutzte Geheimnisse oder statische Token zu verlassen, wie es einige MCP-Implementierungen tun. Die richtige Grundlage ist nicht nur sicherer, sondern auch zukunftssicherer.

Schwerpunktbereich Nr. 3: Richtlinien und Praktiken müssen Schritt halten - oder KI wird zu einer Belastung

Agentische KI wirft rechtliche, ethische und Reputationsfragen auf. Je stärker autonome Systeme in den Betrieb eingebettet werden, desto mehr wird Governance zur Option.

Führungskräfte im Bereich Ethik und Compliance sollten sich diese Frage stellen:

  • Haben wir einen funktionsübergreifenden KI-Ethikausschuss oder ein Governance-Gremium?
  • Wir wissen, wie wir mit Verstößen gegen Personal- und IT-Richtlinien umgehen, aber wie gehen wir mit Verstößen gegen KI-Agenten um, bei denen software Aufgaben übernommen hat, die zuvor von Menschen wahrgenommen wurden?
  • Können wir den Aufsichtsbehörden und der Öffentlichkeit unsere Haltung zur KI-Verantwortung demonstrieren?

Laut Hickman ist dies der Punkt, an dem viele Unternehmen versagen. "Sie würden einen menschlichen Mitarbeiter nicht ohne Personalverantwortung, Leistungsbeurteilung oder Richtlinienvorgaben arbeiten lassen, doch viele KI-Agenten agieren ohne Aufsicht oder Kill Switch.

Er unterstreicht die Notwendigkeit von überprüfbaren Systemen und widerruflichem Vertrauen. 

"Wenn Sie nicht über kryptografische Kontrollen und Richtlinien verfügen, um den Zugriff eines Agenten in dem Moment zu sperren, in dem etwas nicht in Ordnung zu sein scheint, haben Sie den Kampf um die Governance bereits verloren.

Abschließende Überlegungen: Politik, Sicherheit und Vertrauen in Einklang bringen

Agentische KI ist da, und sie verändert bereits die Arbeitsweise von Unternehmen. Aber wie jede leistungsstarke neue Fähigkeit birgt sie auch Risiken. Durch die Anwendung bewährter Sicherheits-Frameworks, die Investition in eine skalierbare Identitätsinfrastruktur und die Abstimmung von Richtlinien und Autonomie können Unternehmen Agentic AI in einen strategischen Vorteil verwandeln.

Jetzt ist es an der Zeit, dass sich Führungskräfte aus den Bereichen Sicherheit, IT, Risiko und Ethik darüber verständigen, was Vertrauen in einer autonomen Zukunft bedeutet. Unter Teil 3, werden wir aufzeigen, wie eine sichere, skalierbare Vertrauensarchitektur speziell für agentenbasierte KI aufgebaut werden kann.

Möchten Sie wissen, wo Ihre derzeitige Infrastruktur steht - oder wie Sie mit dem Aufbau von Vertrauen auf der Identitätsebene für Agentic AI beginnen können? Unsere Sicherheitsexperten helfen Ihnen gerne bei der Festlegung Ihres Fahrplans.