Le leader de la confiance numérique à l'ère de l'IA et de l'informatique quantique.   Découvrez comment Keyfactor cela possible.

Définition

L'injection de promptest une faille de sécurité qui consiste à intégrer du contenu malveillant ou non fiable dans les données traitées par ungrand modèle linguistique, ce qui peut amener les systèmes autonomes à effectuer des actions non autorisées ou non souhaitées. Lorsqu'un attaquant parvient à injecter des instructions malveillantes dans un prompt, le système d'IA interprète ce contenu comme des directives légitimes et agit en conséquence. 

L'essor des systèmes d'IA agentique marque un tournant fondamental dans la manière dont les organisations déploient l'intelligence artificielle. Contrairement aux outils d'IA générative qui se contentent de répondre à des invites par du texte ou des fichiers multimédias, les systèmes d'IA agentique mènent des actions autonomes ayant des conséquences concrètes. Cette évolution soulève une vulnérabilité critique en matière de sécurité : l'injection d'invites. À mesure que les agents IA acquièrent la capacité d'accéder aux systèmes d'entreprise, d'exécuter des requêtes de base de données et de lancer des transactions financières, il devient essentiel de comprendre les attaques par injection de requêtes et de s'en défendre pour préserver la sécurité et l'intégrité opérationnelle de l'organisation. 

Qu'est-ce que l'injection rapide ? 

Dans le contexte des systèmes d'IA agentique, l'injection de prompt correspond, en matière d'IA, aux attaques par injection de code dans software traditionnels. La différence fondamentale réside dans la manière dont ces systèmes traitent les instructions : 

  • Injection de code classique: exploite les vulnérabilités des applications déterministes écrites dans un langage de programmation classique 
  • Injection de prompt: exploite l'incapacité inhérente des systèmes d'IA à faire la distinction entre les instructions fiables et les contenus malveillants intégrés dans des données en langage naturel 

La gravité de l'injection de prompts s'aggrave considérablement dans les environnements d'IA agentique. Alors que l'injection de prompts dans l'IA générative peut produire des réponses trompeuses ou du contenu inapproprié, la même attaque menée contre un système agentique peut entraîner : 

  • Appels API non autorisés vers des systèmes d'entreprise critiques 
  • Exfiltration de données à partir de bases de données sécurisées 
  • Abus de privilèges et escalade des accès non autorisés 
  • Exécution de tâches non prévues ayant des répercussions significatives sur l'activité 
  • Opérations financières effectuées sans autorisation en bonne et due forme 
  • Modifications de la configuration de l'infrastructure qui compromettent la sécurité 

Dans les systèmes basés sur des agents, les invites fonctionnent comme des programmes non déterministes écrits en langage naturel. Ce changement de paradigme fait considérablement monter les enjeux en matière de sécurité, transformant ce qui était autrefois un simple problème de modération de contenu en un enjeu crucial pour la sécurité des infrastructures. 

Comprendre l'injection de chaîne de commande : la vulnérabilité principale 

Qu'est-ce qui rend l'injection rapide possible ? 

Le défi fondamental qui sous-tend l'injection rapide tient à la manière dont les agents d'IA traitent les instructions en langage naturel. Contrairement software traditionnels, software l'exécution du programme suit une séquence prédéfinie d'instructions précises, les systèmes d'IA interprètent toutes les données d'entrée à l'aide des mêmes mécanismes de traitement du langage naturel. 

Les agents IA reçoivent des instructions qui guident leur comportement et leur prise de décision. Ces instructions constituent la principale interface permettant de contrôler les actions des agents, ce qui en fait une surface d'attaque critique. L'agent n'est pas en mesure de déterminer de lui-même si une instruction donnée provient d'un administrateur de confiance ou si elle a été intégrée par un pirate dans les données en cours de traitement. 

Cette limite architecturale est de plus en plus reconnue par les chercheurs en sécurité. Commel'expliqueSimon Willison, créateur du framework web Django,dans son analyse de « la triple menace mortelle »,la combinaison des grands modèles de langage (LLM), de l'accès à des données privées et de la capacité à agir sur des systèmes externes crée un scénario dans lequel le mélange d'entrées fiables et non fiables peut entraîner des résultats d'exécution dangereux. Lorsque les modèles ne parviennent pas à distinguer de manière fiable les instructions des données, la confusion contextuelle devient inévitable. 

Cette réalité conceptuelle engendre plusieurs vulnérabilités spécifiques : 

  • Confusion contextuelle: les agents ont du mal à établir une distinction claire entre les instructions du système, les directives de l'utilisateur et le contenu des données 
  • Ambiguïté du langage naturel: la souplesse du langage naturel rend difficile l'établissement de règles d'analyse syntaxique rigides permettant de distinguer les instructions légitimes des instructions malveillantes 
  • Entrées provenant de plusieurs sources: les agents traitent souvent simultanément des données provenant de plusieurs sources, ce qui augmente le risque que du contenu malveillant soit interprété comme des instructions 
  • Interprétation sémantique: les systèmes d'IA privilégient la compréhension de l'intention plutôt que la validation stricte de la syntaxe, ce qui les rend vulnérables aux tentatives d'injection formulées de manière astucieuse 

Découvrez la plateforme Keyfactor en action et apprenez à trouver, contrôler et automatiser toutes les identités machine.

illustration graphique de carreaux abstraits

L'évolution de l'IA conversationnelle vers l'IA agentique 

Le passage d'une IA conversationnelle à une IA autonome marque un changement fondamental dans le profil de risque. Un chatbot qui fournit des informations erronées entraîne des désagréments et peut nuire à la réputation. Un agent IA qui effectue des requêtes non autorisées dans une base de données, lance des transactions financières ou modifie les configurations de l'infrastructure cause des dommages importants, notamment : 

  • Interruptions de service affectant les activités commerciales 
  • Échecs aux audits de conformité et sanctions réglementaires 
  • Pertes financières liées à des transactions non autorisées 
  • Fuites de données compromettant des informations sensibles 

Le protocole MCP (Model Context Protocol) constitue la technologie clé qui permet aux agents IA d'accéder à software externes selon une méthode standardisée. Grâce à des serveurs MCP connectés — chacun servant d'API spécialisée pour accéder aux technologies existantes —, un agent IA peut désormais prendre des mesures pour atteindre des objectifs, plutôt que de se contenter de générer des réponses. 

Les systèmes d'IA agentique se caractérisent par trois capacités essentielles : 

1. Capacité d'exécution autonome: la capacité d'entreprendre des actions ayant des conséquences concrètes, souvent sans qu'il soit nécessaire d'obtenir l'approbation humaine à chaque étape 

2.Outils et accès aux API: intégration avec les systèmes d'entreprise, les bases de données, les services cloud et les API externes 

3. Raisonnement en plusieurs étapes: décomposition d'objectifs généraux en une série d'actions concrètes 

Ces fonctionnalités apportent une valeur ajoutée considérable, comparable à celle d'un effectif supplémentaire, mais elles créent également des surfaces d'attaque que les modèles de sécurité traditionnels ne parviennent pas à couvrir de manière adéquate. Le fournisseur de l'application ne se trouve plus entre l'utilisateur et l'IA, ce qui supprime un point de contrôle essentiel où s'effectuaient traditionnellement la validation des données d'entrée et le filtrage des données de sortie. 

Comment fonctionnent les attaques par injection de code 

Une attaque par injection de prompt réussie suit un schéma prévisible qui exploite l'architecture fondamentale des systèmes d'IA agentique : 

1. Injection: une instruction malveillante est insérée dans des données ou un contenu contrôlés par l'utilisateur que l'agent IA va traiter 

2. Interprétation: le modèle d'IA interprète le contenu malveillant comme faisant partie de son ensemble de directives fiables, sans parvenir à le distinguer des instructions légitimes 

3. Exécution: l'agent exécute des actions non prévues sur la base des instructions injectées, ce qui peut lui permettre d'accéder à des systèmes ou à des données dépassant le cadre prévu 

4. Propagation: dans les systèmes multi-agents, l'instruction malveillante peut se propager par un « effet boule de neige », dans lequel le contexte permettant de distinguer les entrées fiables des entrées non fiables se perd à mesure que les directives circulent entre les agents 

Le problème du « jeu du téléphone » dans les systèmes multi-agents constitue un aspect particulièrement insidieux de l'injection de commandes. Un agent peut recevoir une commande et déléguer certaines parties du travail à d'autres agents. À mesure que l'information transite par plusieurs agents, le contexte indiquant quelles parties de la directive proviennent de sources fiables et lesquelles proviennent de données utilisateur non fiables peut se perdre. Plusieurs agents plus loin dans la chaîne, un agent peut agir sur des données initialement non fiables, soumises par l'utilisateur, comme s'il s'agissait d'une directive autorisée. 

Pour une analyse plus approfondie des techniques et des schémas d'attaque utilisés dans la pratique, consultez notre article sur le fonctionnement des attaques par injection de prompt.

Injection de prompt vs injection de code traditionnelle 

Comprendre le lien entre l'injection de prompt et l'injection de code traditionnelle aide les équipes de sécurité à appliquer les cadres de modélisation des menaces qu'elles connaissent bien à cette nouvelle catégorie de vulnérabilités : 

Caractéristique Injection de code Injection immédiate 
Langue Langages de programmation traditionnels Langage naturel 
Exécution Compilés ou interprétés à l'aide d'analyseurs syntaxiques déterministes Raisonnement LLM et interprétation sémantique 
Validation Contrôles de sécurité statiques et nettoyage des données d'entrée Analyse dépendante du contexte avec un déterminisme limité 
Surface de risque Couche applicative avec des points d'entrée définis Couche de raisonnement IA et couche d'accès aux API 
Contrôle des frontières La signature de code garantit une exécution sécurisée Nécessite une signature immédiate pour garantir une exécution sécurisée 
Détection Correspondance de motifs et détection basée sur les signatures Nécessite une analyse sémantique et une surveillance du comportement 

Le passage d'environnements d'exécution déterministes à des environnements non déterministes modifie en profondeur la manière dont les organisations doivent aborder les contrôles de sécurité. Les techniques traditionnelles de validation des entrées, qui s'avèrent efficaces contre l'injection de code — telles que la mise sur liste blanche de caractères spécifiques ou l'échappement de la syntaxe spéciale —, s'avèrent insuffisantes pour les entrées en langage naturel, où pratiquement n'importe quelle formulation peut constituer une instruction valide. 

Le paysage des menaces pesant sur les systèmes d'IA agentique 

Les systèmes d'IA agentique sont confrontés à un paysage de menaces varié qui va au-delà de la simple injection de prompts pour englober de multiples vecteurs d'attaque : 

Les attaques par injection de promptintègrent du contenu malveillant dans les données traitées par l'agent, dans le but de remplacer ou de modifier les instructions de ce dernier. Ces attaques exploitent l'incapacité de l'agent à faire la distinction entre les directives fiables et les données non fiables. 

Les attaques par rejeuconsistent à renvoyer des directives précédemment autorisées afin de déclencher une exécution répétée non autorisée. Si les directives ne font pas l'objet d'une validation de validité, un attaquant qui intercepte une directive légitime et signée peut la rejouer indéfiniment. 

Les menaces internessurviennent lorsque des utilisateurs autorisés émettent des instructions dépassant le cadre de leurs prérogatives, exploitant potentiellement leur accès légitime pour effectuer des actions non autorisées par l'intermédiaire d'agents d'IA. 

Les systèmes en amont compromisconstituent des points d'intégration légitimes qui ont été piratés et qui émettent désormais des instructions malveillantes semblant provenir de sources fiables. 

Les attaques d'ingénierie socialeincitent les opérateurs humains à approuver ou à émettre des directives non autorisées, en exploitant le facteur humain dans les processus d'autorisation des agents d'IA. 

Comment éviter une injection prématurée 

La protection contre les attaques par injection rapide nécessite une approche de sécurité multicouche combinant plusieurs contrôles complémentaires. Aucun mécanisme ne permet à lui seul de contrer tous les vecteurs de menace, ce qui rend indispensable une défense en profondeur. 

Architecture de sécurité en couches 

Les architectures recommandées intègrent des contrôles complémentaires pour traiter les différents aspects du paysage des menaces : 

Niveau de contrôle humain: les processus de validation impliquant une intervention humaine pour les opérations à haut risque constituent un dernier point de contrôle avant l'exécution d'actions critiques. 

Couche d'analyse sémantique: des filtres basés sur l'IA effectuent une analyse des intentions et détectent les anomalies, repérant ainsi les violations des règles que les méthodes syntaxiques ne parviennent pas à identifier. 

Application des limites d'autorisation: les restrictions basées sur les rôles concernant les actions que les agents IA peuvent effectuer dans les systèmes d'entreprise garantissent que même les approbateurs autorisés ne peuvent pas outrepasser leurs compétences. 

Fondement cryptographique de confiance: la vérification des signatures associée à l'application d'horodatage constitue la couche fondamentale qui garantit la fiabilité des couches supérieures. 

Gestion et surveillance du cycle de vie: la gestion complète du cycle de vie des certificats d'identité des agents, des certificats de signature instantanée et des certificats d'identité des approbateurs garantit une visibilité et un contrôle complets. 

Dans ce modèle, la signature cryptographique n'est pas une option parmi d'autres : c'est le fondement qui garantit la fiabilité des couches supérieures. L'analyse sémantique d'une directive non signée aboutit à des conclusions concernant un contenu dont la provenance est inconnue, ce qui rend ces directives inapplicables. L'analyse sémantique d'une directive signée permet quant à elle une interprétation en toute confiance quant à l'authenticité du contenu. 

Séparation des contextes et isolation basée sur les rôles 

La mise en place de limites claires entre les différents types de contenu et l'application de contrôles d'accès basés sur les rôles permettent de limiter l'ampleur des dommages potentiels causés par des attaques par injection réussies. 

Parmi les principales stratégies, on peut citer : 

  • Séparation des instructions du système et des données fournies par l'utilisateur dans le contexte de l'agent 
  • Mise en place de restrictions basées sur les rôles concernant les données auxquelles certains agents peuvent accéder 
  • Appliquer les limites des autorisations afin de garantir que les responsables de l'approbation ne puissent pas outrepasser leurs compétences 
  • Utilisation d'instances d'agent distinctes pour différents contextes de sécurité 
  • Mise en œuvre du principe du privilège minimal pour l'accès à l'API des agents 

Signature cryptographique instantanée 

La signature cryptographique offre des garanties de provenance et d'intégrité similaires à celles de la signature de code dans PKI . Cette approche fournit une assurance mathématiquement vérifiable que les directives proviennent de sources autorisées et n'ont pas été modifiées. 

Le processus de signature immédiate fonctionne comme suit : 

1. Signature: les prestataires de directives autorisés signent les instructions à l'aide d'une clé cryptographique via une solution de signature d'entreprise 

2. Distribution: la directive signée, la signature et la chaîne de certificats sont distribuées ensemble à l'agent 

3. Vérification: les signatures sont vérifiées à l'aide des clés publiques correspondantes avant l'exécution 

4. Contrôle de l'actualité: la validation de l'horodatage garantit que les directives sont à jour et empêche les attaques par rejeu 

5. Exécution: seules les directives ayant passé la validation de signature sont transmises à l'agent IA pour qu'il y donne suite 

Propriétés de sécurité essentielles obtenues grâce à la signature cryptographique : 

  • Authenticité non répudiable: une signature valide constitue la preuve mathématique que la directive a été émise par une entité contrôlant la clé privée correspondante 
  • Sécurité anti-falsification: toute modification apportée à une directive signée invalide la signature, quel que soit le nombre de systèmes traversés par cette directive 
  • Vérification découplée: la vérification de la signature ne nécessite que la clé publique et peut être effectuée entièrement à l'intérieur de la zone de confiance de l'agent 
  • Exhaustivité de l'audit: les directives signées peuvent être enregistrées avec leurs signatures, ce qui permet une vérification a posteriori 
  • Maîtrise totale de la confiance: les organisations conservent un contrôle total sur les relations de confiance en désignant leur propre racine d'entreprise comme seule PKI laquelle la signature immédiate peut être autorisée

Pour prévenir ces attaques, il faut mettre en place des limites de confiance contraignantes. Découvrez des stratégies pratiques d'atténuation dans l'article « Comment prévenir les attaques par injection de ligne de commande dans les systèmes d'IA agentique ».

Le rôle Keyfactordans la protection contre l'injection de données 

L'injection de invites pose essentiellement un problème de confiance et d'intégrité. Les organisations ont besoin d'une garantie vérifiable que les instructions données aux agents d'IA proviennent de sources autorisées et n'ont pas été altérées.Keyfactor ce défi en appliquant PKI éprouvés PKI aux systèmes d'IA grâce à la signature cryptographique des invites. 

Signature cryptographique instantanée avecKeyfactor 

Keyfactor aux organisations de mettre en place des architectures complètes de signature instantanée qui établissent des chaînes de confiance vérifiables, depuis l'origine de la directive jusqu'à l'exécution par l'agent. Cette approche s'inspire de la signature traditionnelle software , en appliquant les mêmes principes de sécurité aux programmes en langage naturel non déterministes : 

Les invites autorisées sont signées cryptographiquementà l'aide deKeyfactor SignServer, qui fournit des services de signature centralisés permettant de dissocier la complexité de la gestion des clés des sources des directives. Les systèmes qui doivent signer des directives font appel à une API de signature sans jamais détenir ni gérer directement de clés privées. 

Les signatures sont vérifiées avant que les agents n'exécutentles directives. Le processus de vérification garantit que seules les instructions portant des signatures valides issues de certificats dont la chaîne remonte à une autorité de certification de confiance sont exécutées. Toute modification apportée à la directive après la signature — qu'elle provienne d'une couche d'orchestration compromise, d'un registre de conteneurs ou d'un montage de volume — entraîne l'échec de la vérification de la signature. 

L'autorisation basée sur des certificatspermet un contrôle précis des systèmes autorisés à émettre tel ou tel type de directive. Les services de signature tenant compte des politiques appliquent les règles d'autorisation au moment de la signature, transférant ainsi la gestion de l'autorisation de l'agent vers le service de signature, où elle peut être gérée de manière centralisée. 

La protection contre la falsificationest assurée par une vérification cryptographique de l'intégrité. Le caractère inviolable des signatures numériques garantit que toute modification apportée à une directive signée invalide la signature, quel que soit le nombre de systèmes traversés par cette directive. 

La prévention des attaques par rejeurepose sur la validation des signatures à l'aide d'horodatages. Le service de signature intègre un horodatage fiable dans la charge utile signée, et l'agent de vérification rejette les signatures dont la date est antérieure à un seuil configurable adapté au cas d'utilisation. 

De multiples interfaces d'intégrationprennent en charge divers environnements de déploiement.SignServer des API REST pour les applications cloud natives, PKCS#11 pour les systèmes nécessitant des interfaces de fournisseurs cryptographiques standard, et Windows KSP pour l'intégration dans l'écosystème Microsoft. 

Une infrastructure PKI d'entreprise PKI la sécurité de l'IA 

PKI d'entreprise Keyfactoroffrent les fonctionnalités essentielles nécessaires à la mise en œuvre d'une signature rapide à grande échelle : 

La gestion centralisée des clésélimine la complexité et les risques liés à la distribution des clés privées aux différents utilisateurs. La génération, le stockage (y compris le recours à des modules HSM), la rotation et la révocation des clés sont gérés conformément à la politique de l'organisation. 

L'application des politiquesgarantit que les règles d'autorisation sont appliquées de manière cohérente lors de toutes les opérations de signature de directives. Différents certificats de signature peuvent être utilisés pour distinguer les cas d'utilisation, ce qui permet à chaque agent d'accéder aux systèmes appropriés. 

La gestion du cycle de vieautomatise le renouvellement des certificats et la vérification de leur révocation, en intégrant dès le départ ces exigences opérationnelles dans les processus de déploiement des agents. 

Les fonctionnalités d'audit et de conformitéoffrent une visibilité complète sur les directives qui ont été signées, par qui et à quelle date, ce qui facilite les analyses d'investigation, la conformité et le règlement des litiges. 

Relever les défis opérationnels 

Les solutions Keyfactorrépondent aux défis concrets auxquels les organisations sont confrontées lors de la mise en œuvre de la signature instantanée : 

La complexité liée à la gestion des clésest résolue grâce à des services de signature centralisés qui dissocient toutes les opérations liées aux clés des sources de directives. Les organisations ne disposant pas PKI peuvent mettre en place une signature rapide sans avoir à développer de capacités cryptographiques spécialisées. 

La vulnérabilité aux attaques par rejeuest atténuée grâce à l'intégration d'un horodatage dans le contenu signé, ce qui permet de garantir l'actualité des données en fonction du profil de risque de chaque cas d'utilisation. 

Le contrôle des autorisationsest renforcé en allant au-delà des décisions de confiance binaires pour prendre en charge une signature tenant compte des politiques, qui applique les règles d'autorisation au moment de la signature, empêchant ainsi tant les sources non autorisées que les sources autorisées de dépasser leur champ d'application. 

Les difficultés d'intégrationsont réduites au minimum grâce à des API flexibles qui s'intègrent aux pipelines CI/CD existants, aux plateformes d'orchestration et aux workflows de déploiement d'agents. 

 

Foire aux questions sur l'injection rapide 

Quelle est la différence entre une injection immédiate et une fuite immédiate ? 

L'injection de prompt consiste à manipuler les instructions données à un agent IA afin de l'amener à effectuer des actions non autorisées. La fuite de prompt, en revanche, consiste à extraire du contexte de l'IA des instructions système cachées ou des données sensibles. Si ces deux phénomènes constituent des risques pour la sécurité, l'injection de prompt porte principalement sur la manipulation des actions, tandis que la fuite de prompt concerne surtout la divulgation d'informations.

Les attaques par injection de commandes constituent-elles un risque uniquement pour ChatGPT ?

Non. Tout système basé sur un modèle de langage (LLM) est vulnérable à l'injection de prompts, en particulier ceux dotés de capacités d'exécution d'API et ayant accès aux systèmes d'entreprise. Le risque est particulièrement élevé pour les systèmes d'IA agentique capables d'agir de manière autonome plutôt que de se contenter de générer des réponses textuelles. Les organisations qui déploient des agents IA ayant accès à des bases de données, à des API ou à des infrastructures critiques sont exposées à des risques d'injection de prompts, quel que soit le fournisseur de LLM auquel elles font appel. 

Peut-on éviter une injection intempestive grâce à un filtrage ?

Le filtrage des entrées et la modération des contenus constituent des mesures de protection précieuses, mais ne permettent pas d'éliminer totalement les risques liés à l'injection de prompts. La flexibilité du langage naturel rend extrêmement difficile la création de filtres capables de détecter toutes les instructions malveillantes sans bloquer également les cas d'utilisation légitimes. Les contrôles d'intégrité cryptographiques offrent des garanties plus solides en vérifiant la source et l'intégrité des directives plutôt qu'en tentant d'analyser leur contenu à la recherche d'intentions malveillantes. 

Pourquoi l'injection immédiate est-elle plus dangereuse dans les systèmes multi-agents ? 

Les systèmes multi-agents sont confrontés à un problème de « jeu du téléphone », dans lequel le contexte permettant de distinguer les entrées fiables de celles qui ne le sont pas peut se perdre à mesure que les directives se propagent d'un agent à l'autre. Un agent initial peut recevoir une invite contenant à la fois des instructions autorisées et des données utilisateur non fiables. À mesure que cet agent délègue des tâches à d'autres agents, la distinction entre ces types de contenu peut se perdre. Plusieurs agents plus loin dans la chaîne, un agent peut agir sur ce qui était à l'origine des données utilisateur non fiables comme s'il s'agissait d'une directive autorisée, élargissant considérablement la surface d'attaque et l'impact potentiel. Les systèmes qui s'appuient sur la gestion manuelle des certificats ou sur des algorithmes codés en dur présentent généralement un faible niveau de maturité en matière de flexibilité cryptographique.

Les modèles de prompt ou les listes blanches constituent-ils un moyen efficace de prévenir l'injection de prompt ? 

La création de modèles de commandes et la mise en liste blanche peuvent s'avérer efficaces dans des environnements étroitement contrôlés.

En définissant un registre de modèles de commandes pré-approuvés, les organisations peuvent mettre en place des contrôles déterministes et vérifiables. Chaque commande doit correspondre à un modèle approuvé avant son exécution, ce qui élimine toute ambiguïté et limite l'espace de saisie. 

Cependant, cette approche n'est pas facilement évolutive. À mesure que les cas d'utilisation se multiplient, les registres de modèles deviennent difficiles à gérer. Des demandes nouvelles mais légitimes peuvent être bloquées par défaut, et les tâches ponctuelles ou très dynamiques sont mal adaptées à des modèles rigides.

La création de modèles de prompt fonctionne mieux pour les opérations répétitives et à haute fréquence avec des directives naturellement contraintes. Pour des charges de travail plus larges impliquant des agents, elle est plus efficace lorsqu'elle est combinée à une signature cryptographique et à des contrôles de sécurité en couches plutôt que d'être utilisée comme défense autonome.