Borrar
Imágenes generadas por IA con el rostro de personas que no existen.
Cómo detectar 'deepfakes' gracias a Tom Cruise

Cómo detectar 'deepfakes' gracias a Tom Cruise

La Inteligencia Artificial se ha convertido en un poderoso instrumento de la desinformación. Te enseñamos a detectar manipulaciones

Martes, 22 de octubre 2024, 00:19

Las 'fake news' no son algo demasiado novedoso. De hecho, son un fenómeno bastante antiguo. Antes de la aparición de la IA, los rumores y los cotilleos ya servían para divulgar información falsa. Algunas generaciones aún podemos recordar aquello de 'un amigo de una amiga me contó que su primo vio a Ricky Martin escondido en el armario en aquel programa en directo'. Como entonces, también ahora existen fuentes de (des)información especializadas en dar pábulo a contenidos no contrastados cuya divulgación obedece a intereses opacos. En última instancia, queda en manos de cada cual otorgar o no credibilidad a este tipo de contenidos, canales y medios.

La clave tampoco reside en la manipulación de imágenes. Desde los tiempos analógicos han existido lo que entonces se llamaban 'montajes' o 'fotos trucadas' a base de técnicas manuales como la de superponer unos negativos fotográficos sobre otros. La edición digital, que facilitó estas tareas, tampoco generó tanta inquietud pese a que ya apuntaba hacia algunas posibilidades no muy deseables. Entonces, ¿por qué se ha vuelto tan alarmante la manipulación de imágenes con Inteligencia Artificial?

Probablemente por dos motivos: por una parte, porque cada vez consumimos más productos digitales y nuestra vida se ve más condicionada por ello. Por otra, porque la IA ha avanzado tanto que permite manipular contenidos audiovisuales con una facilidad extrema y sin demasiados conocimientos -algo que pocos años antes solo estaba al alcance de los grandes estudios de cine y de los expertos en efectos digitales. En la actualidad, cualquier persona podría ser capaz de generar un contenido falso que resulte difícil de identificar como tal.

En la actualidad, con herramientas digitales como Photoshop resulta muy sencillo intercambiar las caras de dos personas en pocos minutos

Pero, ¿qué ocurre cuando ese contenido va acompañado con imágenes que podemos ver y escuchar? ¿Qué ocurre cuando nuestros sentidos nos invitan a aceptar como verdadero aquello que no solo leemos, sino que vemos y escuchamos?

El mundo de los 'deepfakes'

Para explicarlo de un modo sencillo, un 'deepfake' es una imagen -o una serie de imágenes- tratadas por IA. El resultado es algo que es falso (Fake) que ha sido elaborado mediante técnicas de aprendizaje profundo (Deep Machine Learning). De la suma de ambos conceptos viene el término 'deepfake'.

A nivel técnico, se toman una o varias muestras del rostro de un sujeto y se entrena una IA para 'aprender' su fisonomía: sus ojos, sus gestos, sus labios, su mirada… Llegados a un punto, es capaz de sustituir la cara de un vídeo por la cara que ha 'aprendido' (face swap) y de adaptarla para que se ajuste a cualquiera de sus expresiones faciales. De un modo similar, también es posible grabar una locución y alterarla lo suficiente como para que se asemeje a la voz de otra persona, pongamos, la voz de cualquier líder político.

Deepfake

Imagen después - Imagen capturada de un vídeo de la cuenta de TikTok @deeptomcruise

Original

Imagen antes - Imagen capturada de un vídeo de la cuenta de TikTok @deeptomcruise
Imagen capturada de un vídeo de la cuenta de TikTok @deeptomcruise metaphysic.ai

Más allá de lo curioso y de lo divertido de las aplicaciones que nos rejuvenecen o nos muestran nuestro posible aspecto cuando lleguemos a los 90 años, dejando a un lado los filtros de imagen que perfeccionan nuestras facciones a tiempo real durante una videoconferencia, incluso excluyendo la infinidad de 'influencers' generados sintéticamente por IA que en realidad no existen, los 'deepfake' pueden convertirse en algo muy serio ya que ponen al alcance de cualquier persona la posibilidad de suplantar la identidad de otra. Se trata de una auténtica manipulación de imágenes a un nivel tan realista que podemos creer que vemos y escuchamos a una persona que conocemos personalmente (por ejemplo, una video llamada de un familiar), a gente que no existe o que murió hace décadas, o a líderes que ostentan algún tipo de responsabilidad pública haciendo y diciendo cosas que jamás hicieron o dijeron.

¿Cómo identificar 'deepfakes'?

Con el avance de la tecnología, los 'deepfakes' se han vuelto cada vez más difíciles de detectar. Sin embargo, aún es posible percibir ciertos detalles que revelan que un vídeo ha sido manipulado.

Algunos consejos

  1. 1

    Gestos lentos y artificiales: Para entrenar una IA con destinada a generar un 'deepfake', por lo general se necesitan imágenes claras y nítidas de los rostros, sin desenfoques de movimiento o de cambios de expresión. Es por eso que la mayoría de videos manipulados suelen ser vídeos frontales, con planos más bien fijos, con la persona más o menos quieta. En el resultado obtenido, el protagonista parece moverse con lentitud, su cuerpo se mueve antes que su mirada o cambia de gesto de una manera un tanto artificial. Sin embargo, las ruedas de prensa, las comparecencias públicas o los mensajes a la ciudadanía suelen encajar muy bien a la hora de disimular estos defectos, porque quienes las protagonizan tienden a hablar con calma, a no gesticular demasiado y a permanecer más o menos inmóviles, esto es: unas condiciones perfectas para generar un 'deepfake'.

  2. 2

    La mirada perdida: En muchas ocasiones a la IA le cuesta acompañar la mirada con el movimiento natural del cuerpo humano. Suele dar la sensación de que la persona tiene, por momentos, la mirada perdida o que está somnolienta. Los parpadeos también son un detalle a tener en cuenta. En un vídeo manipulado, la persona alterada artificialmente parpadea menos, y cuando lo hace, suele perder la mirada en los siguientes instantes del vídeo. A veces, incluso es posible detectar una variación en el color de ojos. Y hablando de ojos, los de los humanos suelen reflejar lo mismo puesto que están en el mismo contexto. Por ejemplo, el mismo punto de luz. En los ojos manipulados, la IA tiene que 'inventarse' esos detalles. Así que si nos fijamos en los ojos de una persona en un video y vemos que refleja cosas distintas en uno y otro, probablemente se trate de una manipulación. También podemos detectar reflejos cambiantes, como si la persona estuviese cambiando de lugar y de condiciones de luz, pese a estar inmóvil frente a la cámara.

  3. 3

    La boca difusa: La mayor parte de modelos de IA se suelen centrar en 'aprender' rasgos faciales como la nariz, la forma de los ojos o los labios. Pero aún tienen problemas para interpretar elementos como el interior de la boca que solo queda visible cuando hablamos. Normalmente no se entrenan con estos detalles, así que cuando un vídeo ha sido manipulado podemos identificarlo por la falta de definición en los dientes o porque que la lengua no es visible. También se puede detectar en el interior de la boca que tiende a aparecer borrosa, convirtiéndose en poco más que una mancha oscura.

  4. 4

    Imágenes de perfil: Habitualmente la IA requiere un plano claro de los rostros para poder 'aprenderlos', así que cuando tiene que generar planos de perfil suele cometer errores. Y aún más los de escorzo o aquellos en los que solo se muestra una pequeña parte de la cara. En esos momentos suelen aparecer borrones y evidencias de la manipulación.

  5. 5

    Oclusiones, gafas y pelo: ¿Qué ocurre cuando algo pasa por delante de la cara? La IA no sabe cómo interpretarlo porque no ha sido entrenada para ello. En esos momentos, tiende a revelar borrones, incluso a mostrar la cara original antes de la suplantación. Lo mismo sucede si la persona tiene gafas, se toca mucho la cara (las manos y los dedos desaparecen al tocarse el rostro) o tiene el pelo tan largo que, ocasionalmente, le cae por las mejillas.

Hace algunos años, Cruzcampo nos sorprendía con un anuncio que empleaba IA para generar un deepfake de Lola Flores. En este vídeo se muestra todo el proceso: el vídeo original, el entrenamiento de la IA para reconocer los rasgos de 'La faraona' y el resultado final. Hábilmente se recurría a unos planos estáticos, sin gestos bruscos ni oclusiones para que ningún error de la IA acabara con la ilusión de estar viendo a la auténtica Lola Flores. CruzcampoTV

Inteligencia Artificial junto con Inteligencia Humana

Los 'deepfakes' más elaborados no se basan solo en IA. Una vez que se obtiene el vídeo manipulado, se emplean métodos manuales, es decir, humanos. Se ajustan las luces y los colores, y se corrigen los errores. Un 'deepfake' creado por IA y después retocado por alguien profesional de la edición de vídeo puede resultar realmente impresionante y dejar pocas pistas de la manipulación.

Un asombroso ejemplo de esta sofisticación convirtió en viral hace algunos años la cuenta de tiktok @deeptomcruise en la que el actor de Misión Imposible aparecía en situaciones cotidianas, a menudo hilarantes.

Resultó que detrás de la parodia se encontraba el actor Miles Fisher, que guarda cierto parecido con el protagonista de Misión Imposible y que, además, es capaz de imitar sus gestos y sus expresiones.

Los videos estaban perfeccionados manualmente por Chris Ume, un experto en el uso de IA para la edición de videos. Acompañado por un equipo de profesionales, fundaron metaphysic.ai, un estudio de especialistas en el empleo de la IA en producciones cinematográficas. En aquel momento, su objetivo era crear videos paródicos que transgredieran todas las limitaciones de los 'deepfakes' para evidenciar las posibilidades de la IA y, de paso, alertar del peligro de creernos todo cuando vemos en soporte digital.

En aquellos primeros videos aún podemos ver ciertos defectos. Sobre todo, porque tratan de poner al límite las posibilidades de los 'deepfakes': planos en movimiento, cambios drásticos de expresiones, oclusiones con gafas o con las manos… El resultado era sorprendente, pese a que la manipulación era detectable si veíamos los videos cuadro a cuadro y nos fijábamos en los lunares característicos que aparecen y desaparecen o en las arrugas que cambian de posición y de forma.

En los vídeos posteriores, algo más sofisticados, la manipulación es realmente difícil de identificar ya que han sido grabados hábilmente evitando los planos de escorzo o de perfil, corrigiendo manualmente los errores o asegurándose de que las marcas faciales, las arrugas y los lunares no variaran de forma o de posición.

A la velocidad a la que avanza la tecnología, la cuestión más importante no es si podemos identificar 'deepfakes' sino... ¿cuándo dejaremos de ser capaces de reconocerlos?

Publicidad

Publicidad

Publicidad

Publicidad

Esta funcionalidad es exclusiva para suscriptores.

Reporta un error en esta noticia

* Campos obligatorios

elcorreo Cómo detectar 'deepfakes' gracias a Tom Cruise