Sin consentimiento

"Cualquier chica puede ser expuesta": los desnudos falsos creados por inteligencia artificial se disparan

Estas aplicaciones suponen un nuevo método de violencia digital contra las mujeres contra el que no existe regulación específica

Una chica mira el móvil en la playa.

Una chica mira el móvil en la playa.

Carles Planas Bou

En junio de 2019, el medio estadounidense Vice denunció la existencia de DeepNude, una "horrible" aplicación que podía desnudar a cualquier mujer. El usuario sólo tenía que colgar una foto de la víctima, pagar 50 dólares y esperar a que la inteligencia artificial (IA) del programa se encargase de quitarle la ropa. Los resultados eran tan creíbles que su uso se disparó, pero el alud de críticas recibidas obligó a sus creadores a cerrar el proyecto a las pocas horas.

Cuatro años después, el problema es mucho mayor. DeepNude desapareció, pero en su lugar han surgido decenas de otras 'apps' similares. Una de esas es la que ha utilizado un grupo de niños de Badajoz para desnudar sin consentimiento a sus compañeras de colegio, menores de edad. "La imagen es súper realista y, además de viralizarse entre ellos, las pueden haber subido a sitios de internet tipo 'Onlyfans'", ha explicado a EL PERIÓDICO, del grupo Prensa Ibérica, Miriam Al Adib, madre de una de las víctimas.

Aunque este caso ya ha sido denunciado ante la Policía Nacional, ilustra un nuevo método de violencia digital contra las mujeres cada vez más popular. Un simple vistazo a Google Trends es suficiente para constatar como las búsquedas sobre esas aplicaciones se han disparado durante el último año. "Es un fenómeno que empieza a preocupar muchísimo porque no hay ningún tipo de regulación sobre ello y es muy difícil tanto cuantificar el uso de imágenes que circulan como identificar a quienes lo hacen", explica Eva Cruells, coordinadora de la línea de atención de Fembloc, una iniciativa feminista contra las violencias machistas digitales.

De niñas a famosas

En un principio, este tipo de contenidos manipulados —conocidos como 'deepfakes'— apuntaban principalmente contra mujeres famosas. Los rostros de Gal Gadot, Jennifer Lawrence o Scarlett Johansson eran recortados e incrustados en escenas pornográficas que después eran colgadas en páginas para adultos. En enero de 2021 se habían detectado más de 82.000 de esos vídeos ilícitos, según un recuento de la compañía Sensity. Aunque es muy difícil de contabilizar, las cifras actuales serían muy superiores.

Ese auge se debe a la normalización del mercado de la IA, en plena expansión. Es en ese contexto que han florecido multitud de 'apps' que intentan hacerse un hueco a costa de desnudar a chicas sin consentimiento. Su uso es cada vez más sencillo y sus resultados, más creíbles. Esa suma de factores ha facilitado que está tecnología pueda ser usada de forma problemática por todo tipo de públicos.

"El mensaje es que cualquier chica puede ser expuesta, es un señalamiento muy claro sobre la sexualidad de muchas adolescentes".

Eva Cruells

— coordinadora de la línea de atención de Fembloc

Los personajes públicos, como Rosalía o la 'influencer' Laura Escanes, siguen estando en la diana de esos ataques. Sin embargo, la facilidad de acceso a esos programas está propagando su impacto a todo tipo de mujeres, también niñas, como muestra el caso de Badajoz. "El mensaje es que cualquier chica puede ser expuesta, es un señalamiento muy claro sobre la sexualidad de muchas adolescentes", añade Cruells.

Ansiedad y baja autoestima

Esta forma de violencia digital de género puede golpear la salud mental de las víctimas. Un 54% de las mujeres que han sufrido acoso en internet han experimentado ataques de pánico, ansiedad o estrés, mientras que un 42% de las jóvenes han mostrado estrés emocional, baja autoestima y pérdida de autoconfianza, según un estudio del Observatorio Nacional de Tecnología y Sociedad (ONTSI) del año pasado. "Así es sentirse violado, así es sentirse explotado", denunció en enero la 'streamer' QTCinderella, víctima de los 'deepfakes'.

Aunque se trate de una simulación, la distribución de contenidos sexuales de esta índole es un delito. Incluso podría tratarse de pornografía infantil si afecta a una menor. Es por eso que desde Fembloc aseguran que la denuncia pública es una buena práctica para exponer el impacto que tiene y para "apelar al sentido común". "Hay que sensibilizar mucho (...) y generar una comunidad que rechace este tipo de agresión", añade Cruells.

Recrear imágenes sexuales falsas es ilegal, pero aun así es muy fácil encontrar este tipo de contenidos en internet. En una búsqueda rápida en Google aparecen todo tipo de enlaces, desde los que recomiendan las mejores 'apps' de IA para crear desnudos a portales donde se cuelgan.