Deepfakes: una amenaza latente a la identidad

El uso de deepfakes por ciberdelincuentes aumenta los riesgos de robo de identidad y fraude, exigiendo nuevas estrategias de ciberseguridad.

Fernando Fuentes

Portfolio Manager en Neosecure by SEK

Uno de los aspectos más alarmantes en el panorama actual de ciberseguridad es el uso del deepfake por parte de los grupos cibercriminales. Esta técnica, que utiliza inteligencia artificial para "sintetizar una identidad", permite la creación de videos y voces realistas que imitan a personas reales, presentando múltiples riesgos y un gran desafío tanto para individuos como para organizaciones.

¿Cómo funciona el deepfake para robar identidad? La autenticación de identidad generalmente se basa en tres elementos: algo que sabemos, algo que tenemos y algo que somos. Este último tiene múltiples facetas (nuestra voz, nuestro rostro, una huella, la marca de calor de nuestro rostro, nuestro ADN, etc) y es esencial para el reconocimiento y la autenticación en nuestra vida diaria. Sin embargo, los avances en IA han permitido que las pruebas de vida tradicionales, como ver y escuchar a una persona, sean vulnerables a ser falsificadas.

El deepfake puede engañar tanto a personas como a algoritmos, logrando resultados inquietantemente realistas. A través de videos y voces generadas por IA, los atacantes pueden imitar personalidades y manipular la percepción pública, incluso a gran escala, mediante las redes sociales. En ese sentido, el CEO Fraud -esa técnica que utilizan los ciberdelincuentes para engañar a empleados que tienen acceso a los recursos económicos de la empresa, haciéndose pasar por sus directores- encuentra en el deepfake nuevas vertientes de innovación para sus ataques. El impacto que puede provocar este tipo de amenaza puede ser de magnitudes inimaginables, como bien señaló Yuval Noah Harari en su conferencia “La IA y el futuro de la humanidad”.

¿Cómo protegerse? Para los humanos, detectar deepfakes no es tarea fácil. Pero, para contrarrestar esta amenaza, se están desarrollando herramientas basadas en IA para detectarlos. Tecnologías como Face ID de Apple ya incluyen métodos avanzados para medir la profundidad y los puntos de referencia faciales, lo cual dificulta que las imágenes generadas por IA puedan engañarlas. Algunos indicios visuales pueden ser incongruencias en la piel, sombras inusuales alrededor de los ojos, o movimientos faciales no naturales. En el caso de las voces, la falta de nitidez y la falta de sincronización con el movimiento de los labios en un video pueden ser señales de alerta.

A medida en que los ataques son cada vez más sofisticados, lo recomendable es que las empresas inviertan en la detección de amenazas y que actúen de manera proactiva para reducir la superficie de ataque. También prestar atención a algunas recomendaciones para protegerse del robo de identidad. 

En primer lugar, realizar una evaluación de los riesgos derivados del deepfake para identificar en qué procesos puede tener mayor impacto. Identificar estos procesos vulnerables es el primer paso para desarrollar una estrategia de protección efectiva. Otra medida esencial es incorporar mecanismos de autenticación adicionales, como certificados digitales, firmas electrónicas o tokens, que pueden complementar la presencia virtual y añadir una capa extra de seguridad. Esto proporciona un nivel adicional de control, limitando el espacio de acción de los atacantes.

Los controles cruzados, mecanismos de seguridad que se implementan para evitar el fraude y garantizar la integridad de los procesos, también pueden aportar en esta dirección. Especialmente en entornos en los que se maneje información sensible o se hagan transacciones financieras. Implica que ciertos procesos tengan la autorización de más de una persona. Por ejemplo, en el caso de la edición de imágenes utilizando tecnologías deepfake se podría establecer que tanto el creador del contenido como un supervisor independiente tengan que aprobar la publicación del material. Así, se establece un proceso de verificación en etapas que reduce significativamente el riesgo de que información falsa llegue al público.

Por otro lado, la concientización y educación dentro de la organización son vitales para prevenir este tipo de amenazas. Iniciar programas de formación y sensibilización sobre el uso y los riesgos del deepfake ayudará a preparar a los empleados para reconocer y responder a posibles ataques.

Por último, es crucial evaluar e implementar sistemas robustos de “prueba de vida”, es decir escuchar a una persona, verla e interactuar con ella, puesto que representa uno de los mecanismos más confiables para confirmar una identidad tanto a nivel interno como con los clientes. Estos sistemas deben ser capaces de distinguir entre interacciones genuinas y falsas, fortaleciendo la seguridad y confianza en las comunicaciones.

El deepfake representa una amenaza significativa que requiere de medidas innovadoras y una constante actualización en nuestras prácticas de seguridad. En NeoSecure by SEK consideramos que adoptar un enfoque proactivo y educar a todos los miembros de la organización es clave para protegerse de esta sofisticada forma de ciberataque.