Los artistas siempre han estado preocupados de que su trabajo sea utilizado sin permiso para entrenar a modelos de inteligencia artificial (IA). Sin embargo, un grupo de investigadores de la Universidad de Chicago ha desarrollado una técnica innovadora que permite a los artistas incorporar un “veneno” invisible en su obra para engañar a los modelos de IA.
Esta herramienta, llamada Nightshade, altera los píxeles de una imagen de una manera que no puede ser detectada por los seres humanos. Sin embargo, los ordenadores sí pueden percibir estos cambios y los modelos de IA se ven afectados en su capacidad para etiquetar las imágenes. El entrenamiento con imágenes manipuladas con Nightshade hace que los modelos de IA distorsionen su interpretación de la realidad. Por ejemplo, un modelo podría aprender a identificar un coche como una vaca o a confundir arte de dibujos animados con impresionismo.
Detectar estas imágenes manipuladas es una tarea compleja y laboriosa para las empresas de tecnología, ya que los modelos de IA se entrenan con grandes conjuntos de datos. Incluso unas pocas muestras engañosas pueden ocasionar daños significativos. Un experimento llevado a cabo por los investigadores alimentó al modelo Stable Diffusion con 50 imágenes manipuladas. Como resultado, el modelo comenzó a generar imágenes distorsionadas de perros, y después de 100 muestras, empezó a generar imágenes que se parecían más a gatos que a perros. Con 300 muestras, prácticamente no quedaban características caninas.
Anteriormente, los investigadores desarrollaron una herramienta similar llamada Glaze, que oculta el estilo de los artistas de las herramientas de IA. Nightshade tiene como objetivo integrarse con Glaze para proporcionar a los artistas aún más poder en su lucha contra la IA.
Los investigadores esperan que Nightshade proporcione a los artistas una mayor protección contra los modelos de IA. Ben Zhao, científico informático de la Universidad de Chicago y líder del equipo de Nightshade, opina que este avance puede influir en las empresas tecnológicas, que actualmente se apropian sin restricciones de todo tipo de contenido. Zhao afirma que están presionando para que haya un cambio ético en la industria.
A pesar de sus ventajas, Nightshade no puede proteger retrospectivamente a los artistas contra los modelos antiguos. Según el profesor Zhao, la técnica solo es eficaz durante el entrenamiento de los modelos y no después. No obstante, la existencia de Nightshade ha despertado esperanza y ánimo en la comunidad artística, que ahora tiene una herramienta para proteger su trabajo del uso no autorizado por parte de las empresas de tecnología.
Preguntas frecuentes (FAQ):
¿Qué es Nightshade?
Nightshade es una herramienta desarrollada por investigadores de la Universidad de Chicago que permite a los artistas incorporar un “veneno” invisible en su trabajo para engañar a los modelos de inteligencia artificial.
¿Cómo funciona Nightshade?
Nightshade altera los píxeles de una imagen de tal manera que no puede ser detectada por los seres humanos, pero sí por los modelos de IA. Estos cambios afectan la capacidad de los modelos de IA para etiquetar adecuadamente las imágenes, distorsionando su interpretación de la realidad.
¿Qué ventajas ofrece Nightshade a los artistas?
Nightshade proporciona a los artistas una forma de proteger su trabajo del uso no autorizado por parte de los modelos de IA. También brinda a los artistas más poder y control en su enfrentamiento contra las empresas tecnológicas.
¿Nightshade puede proteger el trabajo de los artistas de los modelos de IA antiguos?
No, Nightshade solo es eficaz durante el entrenamiento de los modelos de IA y no después. No puede proteger retrospectivamente contra los modelos antiguos.
¿Cuáles son las preocupaciones sobre Nightshade?
Algunos temen que Nightshade pueda ser utilizado de manera malintencionada. Sin embargo, se considera que un ataque dirigido sería difícil de llevar a cabo, ya que requeriría miles de muestras contaminadas para dañar a los grandes modelos de IA que están entrenados con miles de millones de muestras de datos.