Innovación

ChatGPT y datos sensibles: el riesgo invisible para empresas

ESET advierte que usar ChatGPT sin controles puede exponer datos sensibles, credenciales, código propietario e información estratégica empresarial.
Domingo, Mayo 3, 2026

ESET advirtió que el uso masivo de herramientas como ChatGPT, Gemini y Claude está creando nuevos riesgos de privacidad para empresas y usuarios, especialmente cuando se ingresan datos sensibles, código propietario, credenciales, documentos internos o planes estratégicos.

El análisis parte de una cifra que muestra la escala del fenómeno: ChatGPT alcanzó 900 millones de usuarios activos semanales, según datos de OpenAI citados por ESET.

El prompt no desaparece al cerrar la ventana

Mario Micucci, investigador de Seguridad Informática de ESET Latinoamérica, advierte que muchas personas creen que las conversaciones con IA son volátiles y privadas. Sin embargo, explica que interactuar con grandes modelos de lenguaje implica almacenamiento, procesamiento y posibles revisiones de información.

Según ESET, cuando un usuario escribe en ChatGPT, la información puede pasar por tres capas: almacenamiento e historial, uso para entrenamiento de modelos y revisión humana de muestras anonimizadas.

El punto crítico: entrenamiento y acceso a cuentas

En versiones gratuitas y Plus, OpenAI puede usar conversaciones para mejorar sus modelos, aunque el usuario puede desactivar esa opción. En planes Business, Enterprise, Edu, Healthcare y API, los datos no se usan para entrenamiento de forma predeterminada.

Micucci señaló que si un empleado introduce código propietario o un plan estratégico, esa información puede quedar fuera del control de la empresa. “Ingresar información confidencial puede exponer a la pérdida de control sobre información sensible y a riesgos de memorización o extracción de datos”, afirmó.

La amenaza no termina en la plataforma. ESET reportó que en 2024 fueron encontrados más de 225.000 registros de inicio de sesión de ChatGPT a la venta en foros de la Dark Web, muchas veces obtenidos mediante malware tipo infostealer.

Gemini, Claude y la privacidad empresarial

ESET también comparó el tratamiento de datos en otros modelos. En Gemini, Google puede usar conversaciones para mejorar servicios, aunque en entornos corporativos de Google Workspace los datos no se usan para entrenar modelos globales. En Claude, Anthropic ofrece mecanismos de exclusión para clientes comerciales y una política de retención más limitada.

Micucci resume el punto de fondo: “Ninguno funciona como una ‘bóveda’ completamente aislada por defecto”.

La IA exige gobierno interno

La recomendación de ESET es directa: no ingresar información que no se haría pública, anonimizar datos antes de usarlos, activar autenticación de dos factores, usar contraseñas únicas y revisar los controles de privacidad de cada plataforma.

Para las empresas, el mensaje es más amplio. La adopción de IA no puede depender solo del entusiasmo de los equipos. Sin políticas claras, capacitación y herramientas aprobadas, cada prompt puede convertirse en una fuga potencial de información estratégica. La productividad que promete la inteligencia artificial solo será sostenible si viene acompañada de gobierno, seguridad y criterio empresarial.

Tal vez te has perdido