Tecnologías Emergentes

DARPA ha encontrado la forma de detectar Deepfakes: la clave está en los ojos

El Departamento de Defensa estadounidense financia a grupos de expertos para desentrañar los misterios de los vídeos manipulados con IA

Miguel Ángel Ossorio Vega | Jueves 30 de agosto de 2018
Un equipo de investigadores ha detectado que los Deepfakes nunca muestran a la persona manipulada pestañeando porque la IA que los crea se basa en imágenes estáticas. Es el primer paso para desarrollar sistemas que permitan detectar vídeos falsificados. Pero no será tan fácil.

Los potenciales peligros de los Deepfakes, vídeos manipulados creados mediante Inteligencia Artificial, han llevado al Departamento de Defensa de los Estados Unidos, a través de DARPA (Agencia de Proyectos de Investigación Avanzada de Defensa, en cuyo seno nació Internet), a poner en marcha el proyecto Media Forensics, cuyo fin actual es desarrollar herramientas que permitan detectar este tipo de contenidos (el original era automatizar las herramientas forenses digitales). En juego está no solo la protección del honor de estrellas de Hollywood convertidas en inesperadas protagonistas de vídeos pornográficos en los que nunca participaron, sino la protección del propio sistema democrático: los Deepfakes ya han sido utilizados para sembrar confusión en la opinión pública y generar conflictos artificiales mediante la sofisticación de las fake news.

El proyecto de DARPA fue anunciado hace unos meses. Ahora, el equipo de Siwei Lyu, profesor de la Universidad Estatal de Nueva York en Albany, parece haber encontrado una grieta en los Deepfakes. Y la han explotado: los vídeos generados con GAN (Generative Adversarial Networks o Red Generativa Antagónica) se nutren de imágenes estáticas que obvian el parpadeo, lo que permitiría entrenar a otros sistemas de Inteligencia Artificial para detectarlo. En ocasiones sí existía parpadeo, pero los movimientos oculares no imitaban con exactitud los naturales realizados por cualquier ser humano. Es la segunda grieta que explotarán Lyu y su equipo: extraños movimientos de cabeza, color de ojos incompatible con el de seres humanos y, en general, "la explotación de este tipo de señales fisiológicas que, al menos por ahora, son difíciles de imitar para Deepfakes", asegura Hany Farid, experto en análisis forense digital del Darmouth College.

Lyu, sin embargo, asume que futuras mejoras de los sistemas ideados para crear Deepfakes podrían solucionar estos puntos débiles con la simple utilización de imágenes que muestren a la persona manipulada parpadeando. No obstante, asegura tener "una pequeña ventaja sobre los falsificadores en este momento", basada en una técnica más efectiva que se niega a hacer pública por el momento para no dar pistas.

Cómo se hace un deepfake

Los Deepfakes contra los que ahora lucha el Departamento de Defensa de los Estados Unidos son vídeos creados mediante sofisticados sistemas dotados de Inteligencia Artificial. Estas herramientas, actualmente al alcance de cualquiera, permiten nutrir al sistema con millares de imágenes de una persona, animal o escenario y crear un vídeo que muestre a los protagonistas realizando aquellas acciones que desee el improvisado guionista. Algunos usuarios han utilizado imágenes de películas pornográficas y han sustituido los rostros de los protagonistas por los de personajes populares de Hollywood, creando un nuevo vídeo absolutamente realista e incluso creíble. Un humorista estadounidense manipuló el vídeo de un discurso de Barack Obama, logró emular su voz con un programa informático y creó un nuevo vídeo en el que un falso Obama, pero basado en la imagen real del expresidente, insultaba a Donald Trump. Otros vídeos han mostrado falsos sucesos, como peleas o agresiones, con fines ideológicos y desinformativos.

Un Deepfake utiliza el citado GAN, formado por dos componentes: el primero, conocido como "actor" o generador, trata de aprender los patrones estadísticos de un conjunto de datos y después genera datos sintéticos similares. El segundo componente, llamado "crítico" o discriminador, intenta distinguir entre ejemplos reales y falsos. De este modo, el generador produce imágenes cada vez más realistas, mientras que el discriminador afina cada vez más a la hora de detectar las imágenes sintéticas. Ambos se retroalimentan mediante retroprogramación.

Para desmontar un Deepfake es necesario, en primer lugar, examinar el archivo digital en busca de indicios que sugieran un montaje de imágenes, analizando cortes o pequeños errores de edición. Después, es necesario prestar atención a las distintas propiedades físicas de las imágenes en busca, de nuevo, de posibles incongruencias o errores de raccord. En este sentido, es posible analizar si el vídeo muestra características climáticas incompatibles con su supuesta fecha de filmación o un fondo que no encaja con la teórica ubicación de la filmación. Entrenar a una Inteligencia Artificial para detectar estos fallos es precisamente la tarea que tiene entre manos el proyecto de DARPA, aunque se necesitará tiempo para lograrlo y, en cualquier caso, el mundo digital ha demostrado que la detección de las mentiras suele llegar cuando la viralización ya ha hecho su trabajo. Nos esperan muchas aventuras...

TEMAS RELACIONADOS: