
Innovación
Los 7 ataques más comunes contra modelos de inteligencia artificial
Modelos de IA como GPT y LLaMA están en la mira de cibercriminales. ESET advierte sobre vulnerabilidades críticas que amenazan su integridad y privacidad.
Miércoles, Abril 23, 2025
A medida que los modelos de inteligencia artificial (IA) ganan protagonismo en sectores clave como salud, banca, defensa y consumo masivo, también se convierten en objetivos prioritarios para los cibercriminales.
Así lo advierte ESET Latinoamérica, que alertó sobre el incremento de ataques que buscan desde manipular los modelos hasta extraer información sensible o comprometer su infraestructura.
¿Por qué son tan vulnerables?
Los modelos de IA procesan grandes volúmenes de datos, muchos de ellos sensibles o estratégicos, y dependen de estructuras complejas como APIs, algoritmos internos y servidores especializados. “La seguridad debe abordarse desde una perspectiva integral, desde el entrenamiento hasta la interacción del usuario”, señaló Fabiana Ramírez Cuenca, investigadora de ESET.
Entre los ataques más conocidos figuran casos como el del chatbot Tay de Microsoft, manipulado por usuarios para promover discursos de odio, o la filtración del modelo LLaMA de Meta antes de su lanzamiento oficial.
Los 7 ataques más comunes a modelos de IA
Data Poisoning (envenenamiento de datos)
Introducción de datos maliciosos durante el entrenamiento para alterar el comportamiento del modelo.Ataques Adversariales
Manipulación imperceptible de inputs para inducir errores. Ejemplo: hacer que un sistema de reconocimiento facial confunda identidades.Control del modelo y explotación
Toma de control del modelo en producción para ejecutar otros ataques, como denegaciones de servicio o comando y control (C&C).Model Inversion Attack (inversión de modelo)
Inferencia de información sensible (como rostros) a partir de respuestas del modelo.Model Extraction Attack (extracción de modelo)
Envío de múltiples consultas para reconstruir la lógica del modelo sin acceder directamente al código fuente.Evasion Attack (ataque de evasión)
Alteración de entradas para engañar sistemas antimalware o de detección de fraudes y clasificarlos como seguros.Malware en infraestructura
Infección de servidores donde se ejecuta el modelo, interrumpiendo su operatividad o filtrando datos confidenciales.
¿Qué deben hacer las empresas?
Las organizaciones que integran modelos de IA en sus operaciones deben adoptar medidas proactivas como:
Validación continua de datos de entrenamiento
Auditoría de APIs y acceso controlado
Segmentación de servidores críticos
Pruebas de resistencia frente a ataques adversariales
Monitoreo constante con equipos especializados en ciberseguridad
La seguridad de la IA no es un desafío futuro, es una urgencia actual. Proteger los modelos desde su base es esencial para evitar consecuencias operativas, reputacionales y legales.