Le leader de la confiance numérique à l'ère de l'IA et de l'informatique quantique.   Découvrez comment Keyfactor cela possible.

  • Accueil
  • Blog
  • AI
  • Ce que le projet de profil cyber-IA du NIST nous apprend sur l'avenir de l'IA et de la cybersécurité

Ce que le projet de profil cyber-IA du NIST nous apprend sur l'avenir de l'IA et de la cybersécurité

AI

Pour les responsables de la sécurité, le débat autour de l'intelligence artificielle a rapidement évolué, passant de l'expérimentation à l'attente. Les systèmes d'IA ne sont plus confinés aux laboratoires d'innovation ou à des projets pilotes à portée limitée. Ils sont de plus en plus intégrés aux processus métier fondamentaux, aux opérations de sécurité et aux workflows décisionnels.

Cette réalité se reflète clairement dans le nouveau profil du cadre de cybersécurité pour l'intelligence artificielle publié par le NIST Profil du cadre de cybersécurité pour l'intelligence artificielle (NIST IR 8596, projet préliminaire initial). Plutôt que d'introduire un cadre de sécurité entièrement nouveau pour l'IA, il s'appuie sur le Cadre de cybersécurité (CSF) 2.0, signalant ainsi que le risque lié à l'IA est désormais indissociable de la gestion des risques cybernétiques des entreprises.

Pour les RSSI chargés d'aligner les programmes de sécurité sur les normes, les réglementations et les attentes du conseil d'administration en matière de risques, ce projet offre des indications importantes sur l'orientation future de la sécurité de l'IA et, plus largement, de la cybersécurité.

L'IA n'est plus un sujet secondaire. Elle fait désormais partie intégrante du modèle de risque central.

L'un des signaux les plus importants dans le projet du NIST est ce qu'il hypothèse. Le projet est rédigé à l'intention des organisations qui utilisent déjà l'IA ou qui sont sur le point de le faire. Il ne se demande pas si l'IA a sa place dans l'environnement ; il se concentre sur la manière dont les systèmes d'IA doivent être gouvernés, sécurisés, surveillés et restaurés en cas de problème.

Cela est important, car cela transforme l'IA d'une préoccupation future en une surface d'attaque actuelle. Du point de vue du RSSI, l'implication est claire : les systèmes d'IA doivent être intégrés dans les registres de risques, les modèles de menaces et les cadres de contrôle existants, et non gérés comme des exceptions spéciales.

Le NIST renforce cette idée en organisant les considérations relatives à la sécurité de l'IA dans les six fonctions du CSF : gouverner, identifier, protéger, détecter, réagir et récupérer. En d'autres termes, l'IA devrait être soumise à la même rigueur que tout autre système critique.

Le véritable enjeu : la confiance, pas les outils

Bien que le document couvre un large éventail de menaces liées à l'IA, des entrées adversaires à l'empoisonnement des données, il ne met pas principalement l'accent sur des techniques d'IA spécifiques, mais plutôt sur la confiance.

Le NIST souligne à plusieurs reprises la nécessité :

  • vérification de l'intégrité
  • provenance et traçabilité
  • authentification et autorisation
  • responsabilité et vérifiabilité

Il s'agit là de principes fondamentaux en matière de cybersécurité, et non d'innovations spécifiques à l'IA. Leur importance suggère que l'avenir de la sécurité de l'IA ne sera pas uniquement défini par des modèles toujours plus complexes, mais aussi par la solidité de l'infrastructure de confiance qui les entoure.

Pour les RSSI, il s'agit d'un réajustement important. Cela signifie que la gestion des risques liés à l'IA dépendra moins de la compréhension de chaque détail interne d'un modèle et davantage de la garantie que les systèmes d'IA sont fiables, vérifiables et contrôlables tout au long de leur cycle de vie.

Les agents IA sont considérés comme des acteurs cybernétiques de premier plan.

L'aspect le plus novateur du projet est peut-être la manière dont il traite les agents et les services d'IA. Le NIST décrit les systèmes d'IA comme des entités autonomes capables d'interagir avec des données, des systèmes et même d'autres agents, parfois à la vitesse d'une machine et sans intervention humaine directe.

En conséquence, le projet souligne que les agents IA doivent :

  • identités uniques et traçables
  • qualifications
  • autorisations définies
  • surveillance et enregistrement continus

Il s'agit d'un changement subtil mais profond. Les agents IA ne sont plus considérés comme de simples applications ; ils sont désormais traités comme des acteurs au sein de l'environnement, capables de prendre des décisions et d'agir instantanément.

Pour les RSSI, cela aligne la sécurité de l'IA sur les défis de longue date liés à l'identité des machines et au modèle « zero trust ». Et cela montre clairement que l'IA n'élimine pas les problèmes liés à la gestion des identités, mais les multiplie.

La gestion des identités et des accès devient discrètement un élément fondamental de la sécurité de l'IA

Dans le cadre de la fonction « Protéger » du CSF, le contrôle de l'identité et des accès apparaît comme un thème récurrent pour les systèmes d'IA. Le NIST souligne que les services et agents d'IA doivent fonctionner selon des principes tels que le privilège minimal, l'authentification forte et la vérification continue .

Cela reflète une réalité croissante : les systèmes d'IA agissent de plus en plus au nom des utilisateurs, des équipes de sécurité et des organisations elles-mêmes. La gestion des personnes ou des éléments autorisés à accéder aux données, à émettre des commandes ou à déclencher des actions devient essentielle pour réduire les risques liés à l'IA.

Du point de vue des normes, cela suggère que les modèles de sécurité axés sur l'identité joueront un rôle essentiel dans la gouvernance de l'IA, en particulier à mesure que celle-ci deviendra plus autonome et interconnectée.

Chaîne logistique IA : plus importante que beaucoup ne le pensent

Le NIST élargit également la définition du risque lié à la chaîne d'approvisionnement pour inclure :

  • données d'entraînement
  • modèles et invites
  • services de déduction
  • API et fournisseurs tiers d'IA

Il est important de noter que le projet place la provenance des données sur un pied d'égalité avec software , reconnaissant que des données compromises ou opaques peuvent nuire à la confiance tout autant qu'un code vulnérable.

Pour les RSSI habitués à gérer les risques software la chaîne software , il s'agit d'un défi familier, mais à plus grande échelle et plus complexe. L'IA introduit davantage de dépendances, davantage de services externes et davantage de composants opaques, qui doivent tous être pris en compte dans les évaluations des risques et la gestion des fournisseurs.

Le Zero Trust ne s'arrête pas aux personnes, et l'IA rend cela inévitable.

Tout au long du projet, le NIST fait référence aux concepts du Zero Trust tels que la vérification continue, le principe du moindre privilège et les contrôles adaptatifs. Il est à noter que ces principes s'appliquent non seulement aux utilisateurs, mais aussi aux systèmes d'IA eux-mêmes.

Les agents IA se comportent différemment des humains ou des applications traditionnelles. Ils fonctionnent en continu, génèrent des résultats de manière dynamique et peuvent influencer les systèmes à grande vitesse. Ce comportement rend les hypothèses de confiance statiques intenables.

L'implication pour les RSSI est claire : les architectures Zero Trust doivent s'étendre aux systèmes d'IA si les organisations souhaitent conserver une visibilité et un contrôle dans les environnements basés sur l'IA.

L'avenir de l'IA et de la cybersécurité

Dans l'ensemble, le projet de profil cyber-IA du NIST suggère plusieurs tendances claires :

  • La sécurité IA sera intégrée aux cadres existants en matière de cybersécurité et de gestion des risques, et ne sera pas gérée séparément.
  • La confiance, l'identité et l'assurance cryptographique seront les fondements de la gouvernance de l'IA.
  • Les agents IA seront traités comme des acteurs cybernétiques autonomes nécessitant des contrôles d'identité rigoureux.
  • La transparence de la chaîne d'approvisionnement s'étendra pour inclure les modèles et les données, et non plus seulement software.
  • Les principes du « Zero Trust » s'appliqueront de plus en plus aux machines comme aux personnes.

Il est important de garder à l'esprit qu'il s'agit d'un premier projet préliminaire et que le NIST sollicite activement des commentaires. Les détails évolueront. Les priorités pourraient changer.

Mais la direction à suivre est déjà claire. L'IA et la cybersécurité convergent autour de principes familiers, mais de plus en plus essentiels, tels que la confiance, l'identité et la gestion du cycle de vie.

Pour les responsables de la sécurité, la question n'est plus de savoir si l'IA a sa place dans le programme de cybersécurité. La question est de savoir si le programme est prêt pour l'IA. 

En lisant entre les lignes, ce projet soulève cinq questions que les RSSI ne peuvent ignorer :

  1. Où l'IA est-elle déjà intégrée dans notre environnement, y compris dans les outils et services tiers ?
  2. Pouvons-nous identifier et retracer les actions de nos systèmes et agents d'IA ?
    (Si un système d'IA agit de manière autonome, pouvons-nous le prouver ?)
  3. Comment l'identité, l'accès et les autorisations sont-ils contrôlés pour l'IA aujourd'hui ?
    (Et ces contrôles sont-ils conçus pour les machines, et pas seulement pour les personnes ?)
  4. Comprenons-nous la provenance et l'intégrité de nos modèles et données d'IA ?
  5. Si un système d'IA tombe en panne ou est compromis, savons-nous comment réagir et rétablir la situation ?

Le projet est ouvert aux commentaires du public jusqu'au 30 janvier 2026, et le NIST sollicite l'avis des responsables de la sécurité et des risques.