Para los responsables de seguridad, el debate sobre la inteligencia artificial ha cambiado rápidamente, pasando de la experimentación a la expectativa. Los sistemas de IA ya no se limitan a los laboratorios de innovación o a proyectos piloto de alcance limitado. Cada vez están más integrados en los procesos empresariales básicos, las operaciones de seguridad y los flujos de trabajo de toma de decisiones.
Esa realidad se refleja claramente en el Perfil del Marco de Ciberseguridad para la Inteligencia Artificial (NIST IR 8596, borrador preliminar inicial). En lugar de introducir un marco de seguridad de IA completamente nuevo, aprovecha el Marco de Ciberseguridad (CSF) 2.0, lo que indica que el riesgo de la IA es ahora inseparable de la gestión del riesgo cibernético de las empresas.
Para los CISO responsables de alinear los programas de seguridad con las normas, los reguladores y las expectativas de riesgo a nivel directivo, este borrador ofrece pistas importantes sobre hacia dónde se dirige la seguridad de la IA y, en términos más generales, la ciberseguridad.
La IA ya no es un tema secundario. Ahora forma parte del modelo de riesgo central.
Una de las señales más importantes del borrador del NIST es lo que supone. El borrador está escrito para organizaciones que ya utilizan IA o que lo harán en un futuro próximo. No se pregunta si la IA tiene cabida en el entorno, sino que se centra en cómo deben gestionarse, protegerse, supervisarse y recuperarse los sistemas de IA cuando las cosas van mal.
Esto es importante porque replantea la IA, pasando de ser una preocupación futura a convertirse en una superficie de ataque actual. Desde la perspectiva del CISO, la implicación es clara: los sistemas de IA deben incorporarse a los registros de riesgos, modelos de amenazas y marcos de control existentes, y no gestionarse como excepciones especiales.
El NIST refuerza esta idea organizando las consideraciones de seguridad de la IA en las seis funciones del CSF: gobernar, identificar, proteger, detectar, responder y recuperar. En otras palabras, se espera que la IA esté sujeta al mismo rigor que cualquier otro sistema de misión crítica.
El verdadero tema: confianza, no herramientas
Aunque el documento abarca una amplia gama de amenazas relacionadas con la IA, desde entradas adversas hasta el envenenamiento de datos, su énfasis más constante no se centra en técnicas específicas de IA, sino en la confianza.
El NIST destaca repetidamente la necesidad de:
- verificación de integridad
- procedencia y trazabilidad
- autenticación y autorización
- responsabilidad y auditabilidad
Se trata de principios fundamentales de ciberseguridad, no de innovaciones específicas de la IA. Su importancia sugiere que el futuro de la seguridad de la IA no vendrá definido únicamente por modelos cada vez más complejos, sino por la solidez de la infraestructura de confianza que los rodea.
Para los CISO, se trata de un reajuste importante. Implica que la gestión de riesgos de la IA dependerá menos de comprender cada detalle interno de un modelo y más de garantizar que los sistemas de IA sean fiables, verificables y controlables a lo largo de todo su ciclo de vida.
Los agentes de IA están siendo tratados como actores cibernéticos de primera clase.
Quizás el aspecto más innovador del borrador sea cómo trata a los agentes y servicios de IA. El NIST describe los sistemas de IA como entidades autónomas capaces de interactuar con datos, sistemas e incluso otros agentes, a veces a la velocidad de una máquina y sin intervención humana directa.
Como resultado, el borrador hace hincapié en que los agentes de IA requieren:
- identidades únicas y trazables
- credenciales
- permisos definidos
- monitoreo y registro continuos
Se trata de un cambio sutil pero profundo. Los agentes de IA ya no se consideran meras aplicaciones, sino que se tratan como actores dentro del entorno que tienen la capacidad de tomar decisiones y actuar de forma instantánea.
Para los CISO, esto alinea la seguridad de la IA con los retos tradicionales de la identidad de las máquinas y el modelo de confianza cero. Y deja claro que la IA no elimina las preocupaciones relacionadas con la gestión de identidades, sino que las multiplica.
La gestión de identidades y accesos se convierte silenciosamente en un elemento fundamental para la seguridad de la IA.
Dentro de la función «Proteger» del CSF, la identidad y el control de acceso surgen como temas recurrentes para los sistemas de IA. El NIST hace hincapié en que los servicios y agentes de IA deben operar bajo principios como el privilegio mínimo, la autenticación fuerte y la verificación continua.
Esto refleja una realidad cada vez más presente: los sistemas de IA actúan cada vez más en nombre de los usuarios, los equipos de seguridad y las propias organizaciones. Gestionar quién o qué puede acceder a los datos, emitir órdenes o desencadenar acciones se convierte en un elemento fundamental para reducir los riesgos derivados de la IA.
Desde el punto de vista de las normas, esto sugiere que los modelos de seguridad basados en la identidad desempeñarán un papel fundamental en la gobernanza de la IA, especialmente a medida que esta se vuelva más autónoma e interconectada.
Cadena de suministro de IA: más grande de lo que muchos esperan
El NIST también amplía la definición de riesgo de la cadena de suministro para incluir:
- datos de entrenamiento
- modelos y indicaciones
- servicios de inferencia
- API y proveedores externos de IA
Es importante destacar que el borrador sitúa la procedencia de los datos en pie de igualdad con software , reconociendo que los datos comprometidos u opacos pueden socavar la confianza con la misma eficacia que un código vulnerable.
Para los CISO acostumbrados a gestionar los riesgos de la cadena software , se trata de un reto familiar, pero a mayor escala y complejidad. La IA introduce más dependencias, más servicios externos y más componentes opacos, todos los cuales deben tenerse en cuenta en las evaluaciones de riesgos y la gestión de proveedores.
El modelo Zero Trust no se limita a las personas, y la IA lo hace inevitable.
A lo largo del borrador, el NIST hace referencia a conceptos de confianza cero, como la verificación continua, el privilegio mínimo y los controles adaptativos. Cabe destacar que estos principios se aplican no solo a los usuarios, sino también a los propios sistemas de IA.
Los agentes de IA se comportan de manera diferente a los seres humanos o las aplicaciones tradicionales. Funcionan de manera continua, generan resultados de forma dinámica y pueden influir rápidamente en los sistemas. Ese comportamiento hace que las suposiciones de confianza estáticas sean insostenibles.
La implicación para los CISO es clara: las arquitecturas Zero Trust deben extenderse a los sistemas de IA si las organizaciones desean mantener la visibilidad y el control en entornos habilitados para la IA.
El futuro de la IA y la ciberseguridad
En conjunto, el borrador del Perfil de IA Cibernética del NIST sugiere varias tendencias claras:
- La seguridad de la IA se integrará en los marcos existentes de ciberseguridad y gestión de riesgos, y no se gestionará por separado.
- La confianza, la identidad y la garantía criptográfica serán los pilares de la gobernanza de la IA.
- Los agentes de IA serán tratados como actores cibernéticos autónomos que requieren fuertes controles de identidad.
- La transparencia de la cadena de suministro se ampliará para incluir modelos y datos, no solo software.
- Los principios del modelo Zero Trust se aplicarán cada vez más tanto a las máquinas como a las personas.
Es importante recordar que se trata de un borrador preliminar inicial y que el NIST está recabando activamente opiniones al respecto. Los detalles evolucionarán. Las prioridades pueden cambiar.
Pero la dirección ya está clara. La IA y la ciberseguridad están convergiendo en torno a principios conocidos, pero cada vez más críticos, como la confianza, la identidad y la gestión del ciclo de vida.
Para los responsables de seguridad, la cuestión ya no es si la IA tiene cabida en el programa de ciberseguridad. La cuestión es si el programa está preparado para la IA.
Leyendo entre líneas, este borrador plantea cinco preguntas que los CISO no pueden ignorar:
- ¿En qué ámbitos de nuestro entorno ya está integrada la IA, incluyendo herramientas y servicios de terceros?
- ¿Podemos identificar y rastrear las acciones de nuestros sistemas y agentes de IA?
(Si un sistema de IA actúa de forma autónoma, ¿podemos demostrarlo?) - ¿Cómo se gestionan actualmente la identidad, el acceso y los permisos en la IA?
(¿Y esos controles están diseñados para máquinas, no solo para personas?) - ¿Entendemos el origen y la integridad de nuestros modelos y datos de IA?
- Si un sistema de IA falla o se ve comprometido, ¿sabemos cómo responder y recuperarnos?
El borrador está abierto a comentarios públicos hasta el 30 de enero de 2026, y el NIST está recabando opiniones de líderes en materia de seguridad y riesgos.