Personalidades de todos los ámbitos, desde la política al cine, el deporte o la música están en las manos de creadores de pornografía deepfake. El avance de la inteligencia artificial ya permite que cualquier rostro aparezca en el cuerpo de un actor porno o un desnudo y que parezca que sea esa persona quien está realizando los actos sexuales, un progreso tecnológico tan avanzado como perturbador. Y no solo ocurre con los famosos: cualquier persona es vulnerable a este delito de violencia digital conocido como pornovenganza. Especialmente los jóvenes, los más acostumbrados a registrar cualquier experiencia vital a través del móvil.
Las imágenes generadas por inteligencia artificial existen desde hace mucho tiempo, pero últimamente se han vuelto inquietantemente sofisticadas. No hace falta entrar en la web oscura ni ser un experto informático para encontrar porno deepfake, la última bomba de la potente industria para adultos que ya tiene su nueva arma preparada para enganchar a millones de personas.
Un reportaje de la NBC descubrió que dos de los mayores sitios web que alojan este contenido son fácilmente accesibles a través de Google y allí sus creadores publican contenido con los rostros de famosas como Scarlett Johansson, Ariana Grande o de uno de los filones más lucrativos de este formato: las streamers.
Es el caso de la famosa creadora de contenido en Twitch, QTCinderella, quien al descubrir que se usaba su imagen para crear porno deepfake, se sintió completamente atacada: “Es como sentirse violada, que se aprovechan de ti”, se sinceraba en uno de sus multitudinarios directos. “No debería formar parte de mi trabajo tener que pagar dinero para que retiren esto. No debería formar parte de mi trabajo que me acosen, que difundan fotos mías desnuda”, lamentaba emocionada.
Aunque los deepfakes sean prácticamente en su totalidad de mujeres -el 99% según un informe Sensity-, lo cierto es que cada vez menos se trata de un problema que sólo afecta a famosas, ya que los creadores de este contenido anuncian que se puede conseguir porno deepfake hecho a medida, con cualquier persona que se desee y sin su consentimiento.
“Un creador ofreció en Discord hacer un deepfake de cinco minutos de una chica no famosa, es decir, cualquiera con menos de 2 millones de seguidores en Instagram, por 65 dólares”, comentaba uno de los periodistas que investigó el caso para la cadena NBC.
Los creadores de los sitios utilizan la plataforma de chat en línea Discord para anunciar sus productos, y la gente puede pagar con tarjetas Visa y Mastercard. El negocio está tan en auge que “dos populares creadores de deepfakes están anunciando puestos remunerados para ayudarles a crear contenidos”.
La oscuridad del mundo de los deepfakes incluso llevó a uno de sus consumidores, el streamer Atrioc, a reconocer que había comprado y visto porno de este tipo de compañeras de profesión, creadoras de contenido en Twitch tan conocidas como la famosísima Pokimane. Al ser pillado en un directo, luego se mostró arrepentido y ofreció un resguardo de 60.000 dólares para que cualquier afectada que quisiera retirar deepfakes lo hiciera sin gastar su propio dinero.
Paradójicamente, las denuncias públicas, los arrepentimientos y las críticas al deepfake no han hecho sino que hacer crecer aún más el controvertido negocio de usar caras -de mujeres en su grandísima mayoría- sobre cuerpos de actrices porno para satisfacer las fantasías de millones de consumidores, que se están multiplicando cada día.
El siguiente paso del debate se está centrando no en lo moral, si no en lo legal: ¿Habría que prohibir utilizar la inteligencia artificial para crear imágenes falsas de una persona teniendo sexo o desnuda? En Estados Unidos algunos estados ya han aprobado leyes al respecto, pero los deepfakes parece que han llegado para quedarse.