Cuando Gabi Belle se enteró de que había una foto desnuda suya circulando por internet, sintió un escalofrío recorrer su cuerpo. La influencer de YouTube nunca había posado para esa imagen, que la mostraba de pie en un campo sin ropa. Sabía que debía ser falsa. Sin embargo, cuando Belle, de 26 años, le pidió ayuda a un colega para que la imagen fuera eliminada, él le dijo que había casi 100 fotos falsas dispersas por la web, en su mayoría alojadas en sitios conocidos por albergar pornografía generada por inteligencia artificial. Fueron eliminadas en julio, pero ya han surgido nuevas imágenes que la representan en situaciones sexuales explícitas.
“Me sentí asquerosa y violada”, dijo Belle en una entrevista. “Esas partes privadas no están destinadas a ser vistas por el mundo porque no he dado mi consentimiento para eso. Así que es realmente extraño que alguien haga imágenes de mí”.
La inteligencia artificial está impulsando un auge sin precedentes este año en imágenes y videos pornográficos falsos. Esto es posible gracias al aumento de herramientas de inteligencia artificial baratas y fáciles de usar que pueden “desvestir” a las personas en fotografías, analizando cómo se verían sus cuerpos desnudos e imponiéndolo en una imagen, o intercambiando sin problemas una cara en un video pornográfico.
Según Genevieve Oh, analista de la industria, en los 10 principales sitios web que alojan fotos porno generadas por IA, los desnudos falsos han aumentado en más del 290 por ciento desde 2018. Estos sitios presentan a celebridades y figuras políticas como la representante de Nueva York Alexandria Ocasio-Cortez junto a chicas adolescentes comunes, cuyas imágenes han sido aprovechadas por actores malintencionados para incitar vergüenza, extorsionar dinero o vivir fantasías privadas. Las víctimas tienen pocas opciones. No existe una ley federal que regule la pornografía generada por IA y solo algunos estados han promulgado regulaciones.