Le leader de la confiance numérique à l'ère de l'IA et de l'informatique quantique.   Découvrez comment Keyfactor cela possible.

  • Accueil
  • Blog
  • PKI
  • Keyfactor Delinea : mieux contrôler votre agent IA

Keyfactor Delinea : mieux contrôler votre agent IA

PKI

Nous assistons actuellement à une explosion de l'IA, qui aide les entreprises à automatiser les tâches répétitives, à accélérer software et à rationaliser le service client, avec de nouveaux cas d'utilisation qui apparaissent chaque jour. L'IA agentique va encore plus loin. Ces systèmes ne se contentent pas de générer du texte ou des informations ; ils agissent. Ils accèdent aux systèmes d'entreprise, récupèrent des données, écrivent du code, exécutent des workflows et interagissent avec les API de manière autonome. 

« D’ici 2030, les directeurs informatiques prévoient que 0 % des tâches informatiques seront effectuées par des humains sans recours à l’IA, 75 % par des humains assistés par l’IA et 25 % par l’IA seule, selon une enquête menée en juillet 2025 auprès de plus de 700 directeurs informatiques par Gartner®, Inc., une société spécialisée dans les analyses économiques et technologiques. »  

Communiqué de presse Gartner®, Une enquête Gartner révèle que toutes les tâches informatiques impliqueront l'IA d'ici 2030 ; les organisations doivent évaluer leur niveau de préparation en matière d'IA et de ressources humaines pour identifier, saisir et pérenniser la valeur, 20 octobre 2025  

Le potentiel de l'IA agentique ouvre la voie à d'énormes opportunités, mais pose également de nouveaux défis urgents en matière de sécurité. 

Le problème de l'identité dans l'IA agentique 

Contrairement aux assistants IA courants d'aujourd'hui, qui se contentent de répondre à des commandes, les systèmes d'IA agentique agissent au nom des utilisateurs ou, parfois, de manière autonome. Ces agents accèdent aux applications d'entreprise, interagissent avec les API, enregistrent du code dans des référentiels et peuvent fonctionner aussi bien en mode supervisé qu'en mode entièrement autonome. 

L'introduction de l'IA comporte toujours certains risques pour la sécurité, mais l'autonomie les accentue. 

Lorsqu'un agent IA est capable de récupérer des identifiants, d'installer des outils ou d'interagir de manière dynamique avec l'infrastructure, son comportement devient plus difficile à prévoir et à contrôler. Dès qu'un agent obtient un identifiant, il peut effectuer n'importe quelle opération dans les systèmes externes à laquelle cet identifiant donne accès. En l'absence de mesures de contrôle rigoureuses, cela pose plusieurs défis : 

  1. Risque d'exposition des identifiants – Les secrets non surveillés et ceux qui ne sont pas associés à des workflows détaillés et à des pistes d'audit peuvent présenter un risque. 
  2. Élévation de privilèges sans limite – Si un agent se voit attribuer des droits d'accès trop étendus, il peut outrepasser les limites prévues sans que personne ne s'en aperçoive. 
  3. Absence de gestion de l'identité non humaine (NHI)– Dans les scénarios autonomes, il n'y a souvent aucun intervenant humain. L'agent IA lui-même doit disposer d'une identité vérifiable. 
  4. Charges de travail dynamiques et éphémères – Les agents s'exécutant dans des conteneurs démarrent, effectuent leur travail, puis s'arrêtent ; l'identité doit donc pouvoir suivre ce même cycle de vie éphémère. 
  5. Vulnérabilités de la chaîne d'approvisionnement – Les agents interagissant avec des API externes pourraient introduire du code ou des données non vérifiés. 

Si les agents doivent se comporter comme des utilisateurs, voire les remplacer, ils doivent être soumis aux mêmes contrôles d'accès et aux mêmes principes de « zero trust » que toute identité humaine ou de service. 

Pourquoi les certificats sont essentiels au modèle Zero Trust 

Pour résoudre ce problème, il faut commencer par l'identité. 

Le modèle « zero trust » exige que chaque connexion soit authentifiée et autorisée, les certificats numériques devenant ainsi le fondement cryptographique de facto. 

Pour les charges de travail autonomes de courte durée, les environnements conteneurisés constituent un modèle de déploiement idéal. Compte tenu de la maturité de la technologie des conteneurs, l'intégration transparente des certificats d'identité est parfaitement prise en charge. Grâce à un maillage de services tel qu'Istio, le modèle « zero trust » est facilité et appliqué, les certificats liés aux charges de travail étant automatiquement émis et utilisés, le tout sans aucune modification du code de l'application conteneurisée. 

Cette approche s'inscrit directement dans le cadre des deux tiers de la triade de la CIA : 

  1. Confidentialité – L'utilisation d'identités non humaines garantit qu'une IA agentique ne peut accéder qu'aux informations ou aux services prévus. 
  2. Intégrité – La communication chiffrée via mTLS garantit que les données échangées entre les services sont authentifiées et protégées contre toute altération. 

Gestion des accès privilégiés : un pilier de l'architecture « Zero Trust » 

Si les certificats garantissent une identification fiable des charges de travail et sécurisent les communications entre services, ils ne permettent pas à eux seuls d'accéder à des systèmes externes. Les systèmes d'IA agentique doivent souvent interagir avec des plateformes tierces telles que des référentiels de code source, des infrastructures cloud, des applications SaaS et des bases de données, chacune ayant ses propres exigences en matière d'authentification. 

Les certificats peuvent être utilisés pour lancer des flux OAuth, ce qui permet aux agents de s'authentifier à l'aide de certificats clients et de les échanger contre des jetons OAuth. Cela permet de mettre en place un modèle d'authentification plus sûr et plus transparent pour les accès pilotés par l'IA. Cependant, OAuth ne couvre pas toutes les applications.  

C'est là que la gestion des accès privilégiés (PAM) devient indispensable. 

PAM offre plusieurs avantages clés en matière de sécurité : 

  • Suppression des secrets codés en dur 
  • Application centralisée des politiques 
  • Accès granulaire, selon le principe du moindre privilège 
  • Traçabilité complète de l'utilisation des identifiants 
  • Rayon d'action réduit pour les agents autonomes 

En bref, les certificats établissent qui l'identité de l'agent, tandis que la gestion des accès privilégiés régit ce que l'agent peut faire. 

Dans une architecture correctement authentifiée pour l'IA agentique : 

  1. L'identité de la charge de travail est établie
    Quel que soit le mode de déploiement d'un agent ou l'endroit où il s'exécute, celui-ci doit recevoir un certificat d'identité cryptographiquement vérifiable d'une durée de validité appropriée. 
  2. L'authentification mutuelle est obligatoire
    Une infrastructure de type service mesh ou similaire garantit une communication chiffrée et authentifiée entre les services internes. 
  3. Un accès sécurisé basé sur l'identité est requis
    Lorsque l'agent doit accéder à un système externe (par exemple, pour valider du code dans un référentiel, automatiser des workflows RH ou gérer des ressources cloud), il ne stocke pas les identifiants localement et n'intègre pas de secrets statiques. 
  4. La récupération centralisée des secrets a lieu
    L'agent s'authentifie auprès d'une plateforme PAM ou d'une plateforme de gestion des secrets d'entreprise à l'aide de son identité basée sur un certificat. Ce système valide l'agent et détermine les informations d'identification qu'il est autorisé à récupérer. 
  5. Utilisation des identifiants de manière ciblée et à la demande
    L'agent ne reçoit que les informations d'identification spécifiques requises, souvent limitées dans le temps et strictement délimitées. Le secret n'est jamais intégré de manière permanente dans la charge de travail et est régi par des contrôles de politique, de journalisation et d'audit. 

Une identité forte garantit la vérification de chaque charge de travail. Les contrôles d'accès privilégiés garantissent la régulation de chaque action. Ensemble, ils complètent l'architecture « zero-trust », permettant ainsi aux organisations de déployer en toute confiance des systèmes d'IA autonomes sans compromettre leur niveau de sécurité. 

De la théorie à la pratique : Keyfactor Delinea 

Keyfactor Delinea ont uni leurs forces pour démontrer que la sécurisation de l'IA agentique n'est pas une simple théorie, mais qu'elle peut être mise en œuvre dès aujourd'hui. Cette collaboration s'appuie sur des technologies éprouvées déjà utilisées par des entreprises du classement Fortune 500. 

Keyfactor EJBCA la délivrance transparente de certificats d'identité pour les charges de travail conteneurisées, grâce à l'intégration d'Istio pour l'application automatisée du protocole mTLS. 

L'identité de la charge de travail établie grâce à ces certificats est ensuite utilisée par le service d'IA pour demander en toute sécurité des identifiants privilégiés à Delinea Secret Server. Secret Server applique des contrôles d'accès basés sur des politiques et permet une récupération des identifiants strictement limitée dans le cadre d'un processus contrôlé.

Il en résulte un modèle sécurisé de bout en bout pour l'IA agentique, fondé sur les principes du « zero trust ». Un certificat sert d'identité principale à l'IA agentique, ce qui permet au système de gestion des accès et des privilèges (PAM) de fournir un accès aux identifiants strictement délimité, tout en minimisant le risque de sur-privilégier l'IA, chaque étape et chaque interaction étant sécurisées et vérifiables. 

À mesure que les agents IA gagnent en autonomie — en écrivant du code, en gérant l'infrastructure, en traitant les flux de travail —, la mise en place de contrôles rigoureux en matière d'identité et d'accès privilégié devient indispensable. 

Les entreprises n'ont pas à choisir entre innovation et sécurité. En associant l'identité des charges de travail basée sur des certificats de Keyfactor la gestion des accès privilégiés de Delinea, les entreprises peuvent mettre en œuvre l'IA agentique en toute confiance et en toute sécurité. 

L'IA agentique est désormais une réalité ; il nous faut maintenant la sécuriser. 

Pour mieux comprendre les défis liés à la sécurité de l'IA, consultez notre page consacrée à la formation en IA.