Introducing the 2024 PKI & Digital Trust Report     | Download the Report

Por qué la confianza y la transparencia son imperativas en la era de la IA generativa

Tendencias del sector

Es imposible pasar un día sin oír hablar de la IA generativa. Pero si miramos más allá del rumor, ¿qué significa realmente para su negocio?

Recientemente nos sentamos con Ryan Sanders, Sr.Director de Marketing de Productos y Clientes de Keyfactor, Ellen Boehm, Vicepresidenta Sénior de Estrategias y Operaciones de IoT en Keyfactor, y Jason Slack, Director de Ingeniería de Productos de Truepicpara responder en profundidad a esta pregunta. El debate giró en torno a las oportunidades, amenazas e implicaciones empresariales de la IA generativa, la importancia de la identidad y la autenticidad en un mundo de confianza ceroy cómo establecer la confianza con PKI.

Introducción a la era de la IA generativa

La IA no es nada nuevo. Sin embargo, los últimos avances, sobre todo GPT-3 y ChatGPT, han hecho que la IA sea muy práctica y accesible para el ciudadano de a pie. 

Según Gartner, desde el lanzamiento de ChatGPT en noviembre de 2022, el 45 % de las organizaciones han aumentado su inversión en IA. Gartner también predice que la mayoría de los productos y servicios tecnológicos incorporarán algún tipo de capacidad de IA generativa en el próximo año.

¿De qué estamos hablando exactamente? La IA generativa puede producir texto, imágenes y vídeos. También puede revisar y refactorizar código, o incluso servir de copiloto a los equipos de TI y seguridad. Y estos ejemplos no son más que la superficie de lo que es posible. 

En última instancia, la IA generativa hace que la automatización de procesos sea mucho más accesible, lo que crea tanto oportunidades como riesgos, porque puedes apostar a que mientras las organizaciones aumentan su inversión en IA, los grupos de ataque y los hackers adoptan exactamente las mismas estrategias. 

El impacto de la IA generativa: oportunidades frente a riesgos

Como ocurre con cualquier nueva tecnología, la IA generativa conlleva oportunidades y riesgos, y es importante comprender ambos lados de la ecuación. En cuanto a las oportunidades, vemos cuatro casos de uso clave:

  • Generación de código y pruebas: La IA generativa permite a los desarrolladores crear código mucho más rápidamente, sobre el que los equipos pueden iterar. De este modo, las pruebas de rendimiento y control de calidad son más eficientes y la entrega de un producto mínimo viable es más rápida.
  • Automatización de la seguridad: La IA generativa también puede automatizar el proceso de pruebas contra ataques para mejorar la seguridad de la nueva tecnología.
  • Generación de contenidos: Ya se trate de nuevos mensajes de marketing, imágenes y vídeos, guiones o cualquier otra cosa, la IA generativa ha irrumpido con fuerza en términos de generación de contenidos, ayudando a las personas a transmitir un mensaje a un público amplio de forma rápida y eficaz.
  • Asistentes de IA e innovación: Por último, existe la posibilidad de que la IA generativa desempeñe una función de tipo asistente, ayudando a los equipos a innovar mediante la creación de diferentes modelos de negocio o nuevos conceptos para apoyar la forma en que se realiza el trabajo.

Mientras tanto, algunos de los mayores riesgos de la IA generativa que vemos incluyen:

  • Malware generado por IA: La capacidad de la IA generativa para crear malware a gran velocidad no solo puede dar lugar a ataques más inteligentes contra software y los dispositivos, sino también a ataques más frecuentes.
  • Automatización de ataques: La IA puede automatizar los ataques, como los DDoS, hasta el punto de que los humanos ni siquiera necesitan participar. Por ejemplo, en lugar de utilizar una red de dispositivos comprometidos IoT para atacar un servidor, los atacantes pueden crear una red de bots con IA para inundar el tráfico y derribar servidores a bajo coste.
  • Falsificaciones profundas: Las falsificaciones profundas, o vídeos e imágenes que han sido alterados digitalmente para tergiversar los temas, pueden difundir información errónea. Ya hemos visto ejemplos de esto en las noticias, con estados-nación produciendo anuncios políticos generados por IA que intentan influir en la toma de decisiones de personas de todo el mundo.
  • Protección de datos y derechos de autor: La IA generativa puede facilitar la creación de contenidos e información falsos, y cuando estos se hacen pasar por auténticos, pueden crear graves problemas de derechos de autor o incluso vulnerar la privacidad de los datos en los casos en que afecten a las comunicaciones en curso.

Cómo utilizar la IA generativa de forma segura y responsable

Ser responsable con la IA generativa se reduce a la autenticidad y la transparencia. Estos dos principios son la base de Truepic cliente de Keyfactor, y pionera en autenticidad de imágenes que ofrece una tecnología de Captura Controlada líder en el sector para garantizar la integridad de fotos y vídeos digitales desde el instante en que se capturan.

Jason explica: "Uno de los principios más importantes en la fundación de Truepic fue la autenticidad: utilizar una cámara en la que confíes y asegurarte de que lo que ves no ha sido editado. Ahora vemos la transparencia como una pieza importante de eso, reconociendo que está bien tener ediciones siempre que seas transparente sobre la procedencia de algo."

Estos conceptos se extienden a la IA generativa, ya que las empresas que utilizan la IA para generar lenguaje o imágenes deben ser transparentes sobre las herramientas e indicaciones utilizadas para crear el resultado. En última instancia, Jason ve esto como algo parecido a una "etiqueta de ingredientes" para imágenes y vídeos.

Este tipo de pensamiento ha llevado a organizaciones como Truepic a crear la Coalition for Content Provenance and Authenticity (C2PA), que ofrece una norma técnica abierta para que editores, creadores y consumidores puedan rastrear el origen de distintos tipos de medios. En esencia, este tipo de seguridad se centra en el uso de firmas digitales basadas en PKI para demostrar la autenticidad.

La importancia de la confianza y la transparencia en el mundo de la IA

En un mundo de contenidos generados por inteligencia artificial, ¿cómo sabemos lo que es real o sintético, original o editado? Veamos el siguiente vídeo de Truepic y Revel AIque muestra el poder de un vídeo falso profundo.

Con los contenidos que vemos en Internet, la regla solía ser "confía y verifica", pero avances como la IA generativa han cambiado esa situación. Ahora debemos adoptar un enfoque de "nunca confiar y siempre verificar", y en este mundo es importante comprender de dónde proceden los contenidos.

¿Cómo garantizar la confianza y la transparencia?

La adopción de la norma C2PA en todo el ecosistema de los medios de comunicación puede ayudar, ya que facilita la firma de imágenes y vídeos y vincula criptográficamente a los medios información como su procedencia, cómo se han editado y quién los creó. Esto aporta transparencia para que la gente pueda confiar en que lo que ve es real o saber de dónde proceden los archivos alterados.

Estos esfuerzos deben extenderse también a otros ámbitos. Consideremos el caso del código software . La IA generativa puede utilizarse para crear código y realizar pruebas rápidamente, lo que permite a los equipos de desarrollo ser mucho más ágiles. Pero esa mayor eficiencia viene acompañada de la necesidad de demostrar que quien escribe el código es realmente el desarrollador previsto y que incluso un pequeño fragmento de código falsificado o malware no se escribe en un paquete mayor. Como resultado, la capacidad de realizar firmas digitales adecuadas en el nuevo código se vuelve aún más importante.

Esto nos lleva al papel de la PKI y la firma de código, que proporcionan la base para verificar la autenticidad y el origen de los contenidos. Afortunadamente, la PKI está muy consolidada y respalda la confianza digital en la empresa durante décadas demostrando la autenticidad, validando los orígenes de las cosas nuevas y permitiéndonos enviar datos a través de canales cifrados para evitar su interceptación por partes malintencionadas.

Estudio de caso: Truepic y Keyfactor

Cuando surgió el estándar C2PA, Truepic decidió incorporarlo a sus productos para que los usuarios pudieran sellar criptográficamente el estándar C2PA de información en sus archivos visuales. En la búsqueda de un socio que apoyara esa criptografía, Keyfactor surgió como el mejor de su clase para la infraestructura PKI gracias a EJBCA y una asociación con SignServer.

La tecnología de Captura Controlada y el producto Lente de Truepic utilizan EJBCA y SignServer para adquirir datos de procedencia y firmar criptográficamente el contenido para verificar la autenticidad. Este uso de PKI hace que el proceso sea más escalable y flexible para los usuarios, frente a depender de un libro mayor de blockchain.

Así es como funciona:

La IA ya está aquí, y la confianza y la transparencia deben acompañarla

Tanto si estamos preparados como si no, la era de la IA generativa ya está aquí, y la única forma de avanzar con éxito es centrarse en la confianza y la transparencia.

Afortunadamente, principios PKI como la firma digital, proporcionan los elementos necesarios para fomentar la confianza y la transparencia. Los próximos pasos son integrar estos principios en nuevos ámbitos, como las imágenes y los vídeos, para garantizar que se utilicen correctamente, y educar al público sobre lo que debe buscar para verificar la autenticidad. Y cuando lo hagamos, podremos empezar a aprovechar todas las ventajas (¡y son muchas!) que ofrece la IA generativa.

Vea el seminario web completo para profundizar en lo que se necesita y cómo Truepic está trabajando con Keyfactor para liderar el cambio.