Sin consentimiento
"Cualquier chica puede ser expuesta": los desnudos falsos creados por inteligencia artificial se disparan
Estas aplicaciones suponen un nuevo método de violencia digital contra las mujeres contra el que no existe regulación específica
Carles Planas Bou
En junio de 2019, el medio estadounidense Vice denunció la existencia de DeepNude, una "horrible" aplicación que podía desnudar a cualquier mujer. El usuario sólo tenía que colgar una foto de la víctima, pagar 50 dólares y esperar a que la inteligencia artificial (IA) del programa se encargase de quitarle la ropa. Los resultados eran tan creíbles que su uso se disparó, pero el alud de críticas recibidas obligó a sus creadores a cerrar el proyecto a las pocas horas.
Cuatro años después, el problema es mucho mayor. DeepNude desapareció, pero en su lugar han surgido decenas de otras 'apps' similares. Una de esas es la que ha utilizado un grupo de niños de Badajoz para desnudar sin consentimiento a sus compañeras de colegio, menores de edad. "La imagen es súper realista y, además de viralizarse entre ellos, las pueden haber subido a sitios de internet tipo 'Onlyfans'", ha explicado a EL PERIÓDICO, del grupo Prensa Ibérica, Miriam Al Adib, madre de una de las víctimas.
Aunque este caso ya ha sido denunciado ante la Policía Nacional, ilustra un nuevo método de violencia digital contra las mujeres cada vez más popular. Un simple vistazo a Google Trends es suficiente para constatar como las búsquedas sobre esas aplicaciones se han disparado durante el último año. "Es un fenómeno que empieza a preocupar muchísimo porque no hay ningún tipo de regulación sobre ello y es muy difícil tanto cuantificar el uso de imágenes que circulan como identificar a quienes lo hacen", explica Eva Cruells, coordinadora de la línea de atención de Fembloc, una iniciativa feminista contra las violencias machistas digitales.
De niñas a famosas
En un principio, este tipo de contenidos manipulados —conocidos como 'deepfakes'— apuntaban principalmente contra mujeres famosas. Los rostros de Gal Gadot, Jennifer Lawrence o Scarlett Johansson eran recortados e incrustados en escenas pornográficas que después eran colgadas en páginas para adultos. En enero de 2021 se habían detectado más de 82.000 de esos vídeos ilícitos, según un recuento de la compañía Sensity. Aunque es muy difícil de contabilizar, las cifras actuales serían muy superiores.
Ese auge se debe a la normalización del mercado de la IA, en plena expansión. Es en ese contexto que han florecido multitud de 'apps' que intentan hacerse un hueco a costa de desnudar a chicas sin consentimiento. Su uso es cada vez más sencillo y sus resultados, más creíbles. Esa suma de factores ha facilitado que está tecnología pueda ser usada de forma problemática por todo tipo de públicos.
"El mensaje es que cualquier chica puede ser expuesta, es un señalamiento muy claro sobre la sexualidad de muchas adolescentes".
Los personajes públicos, como Rosalía o la 'influencer' Laura Escanes, siguen estando en la diana de esos ataques. Sin embargo, la facilidad de acceso a esos programas está propagando su impacto a todo tipo de mujeres, también niñas, como muestra el caso de Badajoz. "El mensaje es que cualquier chica puede ser expuesta, es un señalamiento muy claro sobre la sexualidad de muchas adolescentes", añade Cruells.
Ansiedad y baja autoestima
Esta forma de violencia digital de género puede golpear la salud mental de las víctimas. Un 54% de las mujeres que han sufrido acoso en internet han experimentado ataques de pánico, ansiedad o estrés, mientras que un 42% de las jóvenes han mostrado estrés emocional, baja autoestima y pérdida de autoconfianza, según un estudio del Observatorio Nacional de Tecnología y Sociedad (ONTSI) del año pasado. "Así es sentirse violado, así es sentirse explotado", denunció en enero la 'streamer' QTCinderella, víctima de los 'deepfakes'.
Aunque se trate de una simulación, la distribución de contenidos sexuales de esta índole es un delito. Incluso podría tratarse de pornografía infantil si afecta a una menor. Es por eso que desde Fembloc aseguran que la denuncia pública es una buena práctica para exponer el impacto que tiene y para "apelar al sentido común". "Hay que sensibilizar mucho (...) y generar una comunidad que rechace este tipo de agresión", añade Cruells.
Recrear imágenes sexuales falsas es ilegal, pero aun así es muy fácil encontrar este tipo de contenidos en internet. En una búsqueda rápida en Google aparecen todo tipo de enlaces, desde los que recomiendan las mejores 'apps' de IA para crear desnudos a portales donde se cuelgan.
- Nuevo supermercado Suma en pleno centro histórico de Antequera
- Álex ya está en casa: "Las Fuerzas Armadas nunca dejan a nadie atrás
- El Seprona paraliza la llegada a la Feria de Abril de cuatro toneladas de pescado y marisco congelado caducado hace dos años
- RTVE suspende la promoción de 'Supernanny' tras recibir varias cartas pidiendo su cancelación
- La empresa del café con bichos investiga el origen de la contaminación en la máquina del aeropuerto de Palma
- Wegovy, nuevo fármaco para control de peso, estará disponible en España a partir de mayo
- Cita con Angie Bru, la doctora que vino a España y se "fugó" a Alemania: "Un médico feliz, que gana más, es un paciente feliz
- España sigue siendo el gran estanco de Europa: se fuma menos, pero los nuevos dispositivos mantienen el negocio con la ayuda de los más jóvenes