El reciente caso de la actriz Rashmika Mandanna, quien experimentó con deepfakes generados por inteligencia artificial que se volvieron virales en las redes sociales, ha aumentado la preocupación en torno a este tipo de contenido.
La rápida proliferación de textos generados por IA, doblajes de voz, deepfakes y memes a través de programas de IA accesibles como ChatGPT, Midjounreny, Stable Diffusion y startups de voz como ElevenLabs, presenta un desafío cada vez mayor para figuras públicas, incluyendo actores, autores y otras personalidades. A medida que avanza la tecnología de IA, las dificultades que enfrentan estas celebridades para proteger su imagen y contenido se han intensificado.
Riesgos planteados por la IA generativa a las celebridades
El caso reciente de Mandanna es una perfecta ilustración de lo vulnerables que son las celebridades al contenido generado por IA. En este caso, un video alterado muestra a una mujer parecida a Mandanna entrando a un lugar vistiendo ropa reveladora. Sin un ojo discernido, es difícil distinguir que no es la actriz, sino otra persona. Este nivel de deepfakes generados por IA y fotos manipuladas ha causado pánico entre las celebridades. Antes de verificar los hechos, este tipo de contenido se difunde rápidamente, alcanzando a millones de espectadores en las plataformas de redes sociales.
Mandanna no está sola. Los doblajes de voz generados por IA del Primer Ministro Narendra Modi han inundado plataformas como Instagram. Una voz generada digitalmente imita a Modi cantando canciones famosas en varios idiomas indios. Este contenido es particularmente popular entre creadores que utilizan estos memes para campañas políticas.
Este fenómeno preocupa a las celebridades a nivel mundial, y muchos trabajadores de Hollywood se han puesto en huelga exigiendo mejores salarios y protección contra la explotación de la IA. Informes indican que una startup de IA con sede en Londres, llamada Realeyes, ofrece $150 por hora para participar en un proyecto de investigación de IA. Este proyecto implica la creación de avatares virtuales de actores de Hollywood al capturar sus emociones y expresiones. Esta iniciativa solidifica la preocupación de que los actores podrían ser fácilmente reemplazados en grandes producciones utilizando herramientas de IA generativa, lo que lleva a una explotación comercial sin consentimiento, pérdidas financieras y ciberacoso en las redes sociales.
Intervención legal
En septiembre, Anil Kapoor obtuvo una orden judicial de un tribunal de Delhi para detener el uso no autorizado de su movimiento característico “Jhakaas” por plataformas de IA en memes. El año pasado, el actor Amitabh Bachchan también obtuvo una orden similar para el uso no autorizado de su voz e imágenes para un mensaje generado por una máquina basado en el icónico programa Kaun Banega Crorepati. Sin embargo, hasta la fecha de escritura de este artículo, no hay informes sobre si Mandanna ha tomado alguna medida legal con respecto a la violación de su privacidad.
El Ministerio de Electrónica e Información Tecnológica señaló que los deepfakes pueden ser abordados dentro de la Ley de Tecnología de la Información de 2000, que incluye la Sección 66D y las Reglas de los Intermediarios de TI. La Regla 3(1)(b)(vii) requiere que los intermediarios de redes sociales informen a los usuarios que no alojen contenido que suplante a otra persona dentro de sus regulaciones. La Regla 3(2)(b) exige que los intermediarios eliminen o deshabiliten el acceso al contenido de suplantación, incluyendo imágenes manipuladas electrónicamente, dentro de las 24 horas posteriores a la recepción de una queja relacionada.
El ministro de estado de electrónica e informática, Rajeev Chandrasekhar, instó a las personas que hayan sido afectadas por deepfakes a presentar denuncias policiales y buscar medidas correctivas bajo la Ley de Tecnología de la Información, que contempla penas de prisión y multas financieras contra los delincuentes. Añadió que se ha pedido a las plataformas que tomen medidas contra la propagación de deepfakes.
Inteligencia artificial generativa y el régimen actual de derechos de autor y propiedad intelectual en India
Según expertos legales, uno de los desafíos clave de la ley actual radica en la suposición dentro de la Ley de Derechos de Autor de India de que el autor debe ser humano. “Incluso cuando la obra es generada por computadora, se considera al individuo que hizo que dicha obra fuera generada, no al programa en sí, como el autor. Es evidente que la definición excluye a los sistemas de IA como autores de cualquier obra”, señalan los expertos.
“Esta postura ha sido adoptada por los tribunales indios en varias sentencias. Sin embargo, la situación no es tan simple. Con la aparición de ChatGPT y otras IA similares, las fronteras entre la originalidad y el trabajo prestado se están volviendo borrosas”, dijo Ekta Rai, abogada del Tribunal Superior de Delhi.
Aviral Kapoor, socio de Alagh & Kapoor Law Offices, sugiere que al tratar los problemas planteados por la IA y la creación de contenido digital, podría ser sabio reconsiderar las definiciones de originalidad y autoría. Esto implicaría definir los derechos con respecto al contenido producido por IA y garantizar que los sistemas legales se adapten al progreso tecnológico.
Swati Sharma, socia de Cyril Amarchand Mangaldas, afirmó: “Esta es una ley que está en desarrollo. No están definidos los parámetros sobre cómo funcionará la IA. Todos los gobiernos del mundo trabajan en un marco para definir los parámetros de funcionamiento de la IA, por lo que afirmar que la ley india está lista o que las leyes de cualquier país están preparadas para enfrentar los desafíos de la IA sería incorrecto”.