Loading...

Vídeos ‘deepfakes’, la técnica más sofisticada para crear noticias falsas

Noticias falsas

Usan inteligencia artificial y permiten sustituir el rostro de una persona por otro a modo de máscara digital

Este hombre no es Obama, es un actor al que han añadido el rostro del ex presidente.

Youtube

Estos días corre como la pólvora por Internet un vídeo sorprendente: la actriz Jennifer Lawrence hablando con el rostro del actor Steve Buscemi. Sería otro vídeo viral sin más de no ser por la perfección con la que está realizado. Pues ese personaje híbrido parece completamente real. Tanto que los labios de Steve Buscemi van acompasados con las palabras de Jennifer Lawrence. A esta clase de vídeos se les conoce como deepfake en el ecosistema de las falsedades que circulan por internet.

Las noticias falsas desde luego no son nada nuevo. Es conocido que Orson Welles aterrorizó a Estados Unidos por la radio cuando narró una supuesta invasión extraterrestre en el programa La guerra de los mundos. Pero imagínense que esa supuesta invasión se transmitiese en 2019 por nuestros televisores de alta definición, con imágenes que escapasen a lo que el ojo es capaz de distinguir como verdadero o falso.

Por fortuna eso aún no es posible. Incluso los montajes más sofisticados de efectos especiales acaban delatando que estamos viendo imágenes sintéticas. Pero la inteligencia artificial está ayudando a que en el terreno del vídeo se logre lo que ya se ha logrado en fotografía: engañar completamente al ojo con imágenes sintéticas. No en vano la mayoría de las imágenes que aparecen en el catálogo de Ikea en realidad son imágenes creadas con ordenador. No fotografías.

El nombre de deepfake proviene de deep learning, aprendizaje profundo. Que es la principal corriente de desarrollo de la inteligencia artificial. Este periodista en su momento tuvo la ocasión de comprobar cómo el aprendizaje profundo se usaba en la sede de Google en Zurich para mejorar el sistema de reconocimiento de voz e imágenes. Aunque es cierto que para lograr esos retos Google cuenta con una abundante materia prima para enseñar a sus máquinas: los datos que circulan por sus múltiples servicios. Y no todo el mundo dispone de semejante caudal de datos.

Algo inquietante de los deepfakes es que pueden ser realizados por individuos o pequeñas organizaciones. Algo que es posible gracias a un software llamado FakeApp, que funciona mediante inteligencia artificial. Este programa permite crear deepfakes si contamos con un puñado de imágenes de la persona que queremos simular en vídeo (cuantas más, mejor). La inteligencia artificial del programa aprende de esas imágenes y es capaz de recrear un rostro sobre otro, como una máscara inteligente.

Delia Rodríguez, periodista experta en internet y autora del libro Memecracia, explica a La Vanguardia que los vídeos pueden manipularse con facilidad sin recurrir a esas herramientas: “no hace falta hacer un deepfake para conseguir que un video mienta. Basta con descontextualizar. Cortar y copiar, usar un viejo vídeo o mentir sobre el país que aparece en las imágenes, jugar con los sesgos de la audiencia. Es mucho más fácil hacer todo eso que usar actores e inteligencia artificial. No hace demasiada falta recurrir a sistemas caros y sofisticados cuando puedes hacer todo lo anterior, que es más rápido y barato”.

Ahora ves un vídeo de Trump, de Sánchez o de Maduro diciendo algo y no dudas sobre lo que han dicho. Pero si usas los sistemas de inteligencia artificial para manipularlo eso ya es un escenario distópico”

Delia RodríguezPeriodista experta en internet y autora del libro Memecracia

Todo esto no sería demasiado trascendente si los deepfakes se usan sólo para crear bromas. Pero lo cierto es que pueden convertirse en una herramienta política de desinformación. Un ejemplo de esto lo vimos en un vídeo en el que se puede ver a un falso Obama pronunciando un mensaje inventado. Por fortuna, en ese vídeo si observamos con atención podemos ver que hay gato encerrado. Pues el rostro se percibe de forma un tanto artificial.

En tecnología las cosas suelen evolucionar rápidamente. Es posible que más pronto que tarde veamos programas más inteligentes capaz de engañarnos mejor. Pero a día de hoy los deepfakes suelen estar limitados a personajes estáticos, que no se mueven demasiado, con un fondo sin demasiados detalles o desenfocado. Además, normalmente son metrajes que no están realizados con la resolución que alcanzan la mayoría de los televisores actuales y muchas pantallas de teléfonos o tabletas: Full HD o 4K.

Pero el desarrollo futuro de estas herramientas en opinión de Delia Rodríguez si puede convertir a los deepfakes en un arma de desinformación: “pueden terminar casi con lo último que nos creíamos. Ahora ves un vídeo de Trump, de Sánchez o de Maduro diciendo algo y no dudas sobre lo que han dicho. Pero si usas los sistemas de inteligencia artificial para manipularlo eso ya es un escenario distópico. Un futuro problema podría ser que la inteligencia artificial mejorase la manipulación tradicional abaratándola, automatizándola y permitiendo la creación de grandes volúmenes de vídeos falsos”.

Ese escenario distópico podría incluso ser más oscuro de lo que pensamos si observamos el experimento que ha realizado un grupo de ingenieros de Nvidia del que hablábamos hace poco, pues han logrado crear a partir de múltiples rostros personas completamente ficticias. Aunque de momento sólo lo han logrado con imágenes estáticas.

Rostros ficticios generados con inteligencia artificial por investigadores de Nvidia.

Nvidia

La buena noticia es que no parece probable lograr crear deepfakes mucho más complejos que los actuales en un plazo breve. Al fin y al cabo desde hace años se habla de la posibilidad de crear películas con personajes generados por ordenador, tan reales como un actor, y tal cosa no se ha logrado. La mala noticia es que la actual tecnología basta para crear un vídeo sin demasiados medios, mandarlo por WhatsApp y sembrar una falsa alarma. La escasa resolución de los vídeos transmitidos por mensajería facilita el trucaje.

En cualquier caso hacer algo así puede tener graves consecuencias. El abogado Juan Ignacio Navas, letrado socio director del despacho de abogados Navas Cursi, explica a La Vanguardia que el derecho a la propia imagen está protegido por el Código Penal. Aunque hay dos criterios importantes a tener en cuenta: un personaje público tiene una menor protección (precisamente por ser público). Por otra parte, si el contenido de un vídeo es satírico no se enjuicia por la vía penal, al no ser que sea ofensivo. Lo grotesco, vejatorio o lo obsceno si que tiene protección del código penal.

Si el contenido de un vídeo es satírico no se enjuicia por la vía penal, al no ser que sea ofensivo. Lo grotesco, vejatorio o lo obsceno si que tiene protección del código penal”

Juan Ignacio NavasLetrado socio director del despacho de abogados Navas Cursi

Esto último es importante, pues los deepfakes también se utilizan en pornografía. Añadiendo burdamente rostros de mujeres famosas con cuerpos de actrices pornográficas. Aunque los autores de un vídeo de estas características dijesen que se trataba de una sátira, si se cae en lo obsceno, como es un vídeo pornográfico, la vía penal está abierta. Como también lo está para la difusión de noticias falsas. Eso, por supuesto, sin hablar de las connotaciones éticas y políticas que tiene el uso de herramientas de desinformación.

Por eso, si las herramientas de creación de deepfakes evolucionan, y se hacen más sencillas, debemos ser conscientes de las consecuencias de jugar con ellas temerariamente. Pues pisamos un terreno peligroso. Aunque es cierto que encontrar al creador de un noticia falsa que circula por WhatsApp no es sencillo, existen métodos para sospechar de lo que recibimos y denunciarlo. Como explicamos en este artículo.

De hecho, Youtube dice que ya ha comenzado a tomar medidas sobre este asunto. En el comunicado que la empresa nos ha facilitado explica que “este es un tema del que somos conscientes y nos lo tomamos muy en serio, es más, ahora mismo tenemos equipos dedicados completamente a ello (...) Esta es una nueva forma de manipulación, pero no es la primera vez que nos enfrentamos a este tipo de desafíos. Problemas anteriores han incluido contenido que infringen los derechos de autor y visitas que realmente son spam (que combatimos con la detección anti-spam). Del mismo modo, como hemos hecho en estos casos, estamos buscando e invirtiendo en nuevas formas para abordar este tipo de contenidos”.

Si volvemos al ejemplo de la fotografía, los fotomontajes son tan antiguos casi como la propia técnica fotográfica. Pero ha sido en estos últimos años, en los que han proliferado las herramientas que han permitido lograr imágenes falsas con poco esfuerzo. Sobre todo desde la llegada de Photoshop y el auge de la fotografía digital. En este último lustro poco a poco los ciudadanos han comenzado a tener sospechas sobre las fotos que ven, sobre todo en redes sociales.

Por muy convincente que algo parezca ya asumimos que puede ser falso. Ahora toca sacar la lupa, y sobre todo el espíritu crítico, cuando veamos también un vídeo. Sobre todo si el medio por el que nos llega es dudoso. De hecho, esto puede ser lo más importante para desenmascarar un deepfake.

En este último lustro poco a poco los ciudadanos han comenzado a tener sospechas sobre las fotos que ven, sobre todo en redes sociales