"Tous ces éléments sont désormais liés.
C'est ce qu'a déclaré Ted Shorter, directeur technique et cofondateur de Keyfactor , lors de la conférence Black Hat 2025, où il n'a pas été question uniquement de l'IA générative ou même de l'IA agentique, mais aussi des risques croissants liés à l'IA adverse, à la communication autonome entre machines et aux lacunes de l'infrastructure dont personne ne parle.
"Je crois vraiment Je crois vraiment que l'IA agentique et l'IA en général seront aussi transformatrices en fin de compte que l'a été l'internet. Elles vont profondément modifier la façon dont les gens vivent et travaillent, et nous n'en sommes qu'au tout début."
Dans des secteurs comme la santé, où le nombre d'appareils connectés explose, l'identité des machines n'est plus seulement une question de sécurité, c'est une question de sûreté. Et comme les agents autonomes sont désormais intégrés dans les flux de travail des entreprises, les attaquants ne s'attaquent plus seulement aux utilisateurs. Ils détournent les systèmes qui alimentent les entreprises à grande échelle.
C'est pourquoi M. Shorter considère l 'identité des machines comme la prochaine grande frontière de la sécurité, et que des protocoles comme le MCP (Model Context Protocol) pourraient bientôt être aussi fondamentaux pour l'infrastructure de l'IA que le HTTP l'a été pour les débuts de l'internet. Mais il y a un hic : la plupart des systèmes actuels manquent encore de cryptage et de cadres d'identité matures.
"Vous devez savoir ce qu'est cette chose. Vous devez savoir ce qu'il est censé faire. Cela commence par une identité forte, bien établie et durable".
▶️ Regardez l'intégralité de son interview pour comprendre pourquoi l'identité est essentielle à la sécurisation de l'IA agentique (Source : theCUBE.NET)
Que sont les agents GenAI (et pourquoi les utilise-t-on) ?
L'IA agentique représente un changement révolutionnaire dans l'intelligence artificielle en permettant aux systèmes de percevoir, de raisonner, d'apprendre et d'agir de manière autonome dans des environnements dynamiques, transformant ainsi les industries grâce à la résolution de problèmes de bout en bout et à la prise de décision adaptative.
Il s'appuie sur les grands modèles de langage (LLM) qui permettent l'IA générative. Plutôt que de simplement répondre à une invite par un texte ou un autre média, il peut suivre les instructions de l'invite pour atteindre un objectif.
Les systèmes agentiques ont besoin d'outils pour agir. C'est là qu'intervient le Model Context Protocol, qui permet aux agents de se connecter en toute sécurité aux applications d'entreprise. Le MCP est l'interface qui permet aux agents d'utiliser les outils nécessaires, ce qui permet à l'utilisateur d'utiliser un grand nombre de ses applications existantes à partir d'une interface unique en langage naturel.
Les organisations et les dirigeants cherchent à tirer parti de l'IA et des "environnements basés sur l'IA" pour développer leurs activités. Mais le pouvoir s'accompagne de risques. Les agents d'IA, comme tout autre système automatisé, doivent être gouvernés, authentifiés et fiables. Keyfactor aide les clients à sécuriser ces agents d'IA comme ils le font pour les robots RPA : avec une identité forte, basée sur des certificats, et non des clés SSH ou des secrets partagés.
Qu'est-ce que le protocole de contexte de modèle ?
Introduit fin 2024 par Anthropic, MCP est un nouveau langage universel entre les outils d'IA Agentic et les applications d'entreprise. Il permet aux assistants d'IA d'accéder et d'interagir en toute sécurité avec des plateformes telles que Keyfactor Command, ce qui permet de poser des questions telles que, "Pouvez-vous trouver le certificat qui présente le risque le plus élevé pour mon organisation ?" et de recevoir une réponse rapide et contextuelle, le tout dans l'interface de l'IA.
En bref : Le MCP permet aux agents d'intelligence artificielle d'agir. Mais agir au nom d'un utilisateur professionnel nécessite une authentification, une autorisation et une confiance, sans lesquelles le système devient vulnérable.
Pourquoi devons-nous sécuriser les agents de l'IA ?
- L'IA autonome et les agents d'IA sont des identités de charge de travail qui doivent être sécurisées
- Il est essentiel d'authentifier ces agents / bots pour permettre des connexions sécurisées et faire confiance aux sources d'IA.
- Confiance numérique : Les agents d'intelligence artificielle sont une autre entité non humaine.Comme pour tous les appareils et charges de travail, tout ce qui est connecté au réseau ou à l'internet doit être authentifié avant d'être fiable.
- Comme pour toute "chose" connectée, les agents d'intelligence artificielle doivent être authentifiés avant de pouvoir se connecter à des ressources externes, telles que des bases de données, des applications et d'autres agents d'intelligence artificielle. L'PKI joue un rôle essentiel dans la vérification de l'authenticité des agents d'IA et la protection des communications entre eux et d'autres entités.
- L'infrastructure de l'agent d'IA est composée de multiples éléments connectés qui doivent être sécurisés pour être fiables.
Comment les organisations doivent-elles sécuriser les agents d'IA ?
La sécurisation des agents d'IA nécessite quatre capacités clés :
- Des identités fortes
- Contrôles d'accès précis
- Haut degré d'auditabilité - les SIEM et autres outils de détection peuvent donc repérer les comportements anormaux.
- Révocation rapide de l'accès - dans le cas où un agent d'intelligence artificielle s'écarte du comportement attendu
Comment Keyfactor permet-il à mon organisation d'exploiter l'IA en toute sécurité ?
- Keyfactor établit confiance numérique. Les agents d'intelligence artificielle sont une autre entité non humaine.Comme pour tous les appareils et charges de travail, tout ce qui est connecté au réseau ou à l'internet doit être authentifié avant d'être fiable.
- La meilleure façon d'authentifier et de chiffrer les connexions avec les agents d'IA lorsqu'ils se connectent aux services en nuage, aux entrepôts de données et aux applications à l'aide de certificats numériques.
- Établir une chaîne de confiance pour prouver l'origine et l'authenticité des appareils, des charges de travail et du code software .
Quelles sont les prochaines étapes de la sécurisation de l'IA ?
Il est important de se rappeler que nous n'en sommes qu'au début. Les enseignements tirés de Black Hat, de l'entretien avec Ted's Cube et des conversations en cours avec les partenaires façonnent l'avenir de la manière dont nous envisageons la sécurisation des systèmes d'IA.
👉 Regarder l'intégralité de Cube avec Ted Shorter
👉 Consultez notre Centre d'éducation pour en savoir plus sur la sécurité de l'IA agentique
Restez à l'écoute pour Partie 2 de cette nouvelle série de blogs, Sécuriser l'IA agentique - Pourquoi les entreprises devraient s'en préoccuperoù nous approfondirons les risques et les opportunités réels que présente l'IA agentique pour les entreprises. De la conformité à l'échelle, découvrez comment votre équipe de sécurité peut se préparer à la prochaine vague d'automatisation intelligente - fondée sur des principes de sécurité éprouvés et prête à répondre à la vitesse de l'innovation.