Innovación

Tenable revela fallas críticas que exponen a ChatGPT al robo de datos

Tenable Research identificó siete vulnerabilidades en ChatGPT que permitirían robo de información y manipulación de memoria en modelos de IA.
Jueves, Noviembre 6, 2025

El equipo de Tenable Research reveló una serie de siete vulnerabilidades críticas en ChatGPT, denominadas colectivamente “HackedGPT”, que podrían permitir a los atacantes exfiltrar información privada, manipular conversaciones y comprometer la memoria del modelo. Las fallas fueron detectadas durante pruebas realizadas sobre ChatGPT-4o y confirmadas parcialmente en ChatGPT-5, donde algunas permanecían activas al momento de la publicación.

De acuerdo con la investigación, estas brechas permiten a los atacantes eludir las medidas de seguridad integradas en el sistema, logrando acceder a datos personales, historiales de chat e integraciones conectadas. La compañía advierte que, debido a la amplia adopción global de ChatGPT, con cientos de millones de usuarios, las implicaciones de estas vulnerabilidades podrían ser significativas para la privacidad y la gobernanza digital.

“HackedGPT expone una debilidad fundamental en cómo los modelos de lenguaje grande juzgan en qué información confiar. Individualmente, las fallas parecen pequeñas, pero juntas forman una cadena de ataque completa”, explicó Moshe Bernstein, ingeniero senior de investigación en Tenable.

Una nueva clase de ataque: la inyección de prompt

El estudio identificó una nueva clase de ataque de IA conocida como “inyección indirecta de prompt”, en la que instrucciones ocultas en sitios web o comentarios engañan al modelo para ejecutar comandos no autorizados.

Estas vulnerabilidades afectan directamente las funciones de navegación web y memoria de ChatGPT, abriendo la puerta a la manipulación de información en tiempo real.

Entre las técnicas documentadas por Tenable destacan:

  • Inyección indirecta de prompt desde sitios de confianza: comandos maliciosos ocultos en páginas aparentemente seguras.

  • Ataques de “0-clic”: el compromiso ocurre al hacer una simple pregunta, sin necesidad de interacción adicional.

  • Inyección de memoria persistente: instrucciones maliciosas que permanecen guardadas en la memoria del modelo, incluso después de cerrar la sesión.

  • Omisión del mecanismo de seguridad: uso de URL legítimas (como wrappers de Bing) para redirigir al modelo hacia sitios inseguros.

El riesgo de una IA “hackeada”

Tenable advierte que, si se explotan, las vulnerabilidades de HackedGPT podrían permitir:

  • Insertar comandos ocultos en conversaciones y memorias persistentes.

  • Robar datos de usuarios o servicios conectados como Google Drive o Gmail.

  • Manipular respuestas para difundir desinformación o influir en decisiones.

  • Exfiltrar información mediante integraciones web.

Estos hallazgos demuestran que los sistemas de IA no son solo objetivos potenciales de ciberataques, sino que también pueden convertirse en herramientas involuntarias para recopilar información confidencial.

“Los sistemas de IA pueden ser manipulados y usados en nuestra contra. Las organizaciones deben tratarlos como superficies de ataque activas, no como asistentes pasivos”, añadió Bernstein.

Recomendaciones para la industria y usuarios

Tenable Research recomienda a las empresas reforzar las defensas contra la inyección de prompt mediante controles de validación, aislamiento de funciones de navegación y auditorías de seguridad continuas.

Entre las principales medidas sugeridas se incluyen:

  • Tratar las herramientas de IA como entornos de riesgo activo.

  • Auditar integraciones y flujos de datos para detectar posibles fugas.

  • Implementar gobernanza de IA con clasificación de información sensible.

  • Realizar pruebas continuas de seguridad sobre los modelos utilizados.

IA segura, confianza digital

La investigación de Tenable subraya un punto clave: el auge de la inteligencia artificial requiere nuevas prácticas de ciberseguridad y gobernanza.

El desafío ya no es solo proteger la infraestructura tradicional, sino garantizar que los modelos de IA mantengan la integridad de los datos que procesan y almacenan.

HackedGPT es un recordatorio de que incluso las herramientas más avanzadas pueden ser vulnerables, y que la seguridad debe evolucionar al mismo ritmo que la innovación.