AI – la inteligencia artificial – está empezando a formar parte de nuestra vida laboral moderna. En el sector de desarrollo internacional, se están llevando a cabo discusiones en curso sobre la ética de utilizar IA para producir imágenes y fotografías en las campañas de organizaciones no gubernamentales e incluso para redactar solicitudes de financiación y informes de donantes. Sin importar el enfoque, la IA tiene el potencial de revolucionar todos los rincones de este sector.
Entonces, ¿qué necesitamos saber al utilizar IA en nuestro trabajo de medios y comunicaciones?
1. Las herramientas de IA pueden ser utilizadas como punto de partida para crear contenido, pero no como producto final.
Lo primero que hay que saber sobre la nueva generación de herramientas de IA, como ChatGPT, es que no “piensan” como los humanos, sino que predicen. Conocida como “IA generativa”, estas herramientas procesan una gran cantidad de datos de internet para responder a tu pregunta o indicación. Aprenden patrones para generar la respuesta más acertada posible. Sin embargo, esto difícilmente resultará en un producto final perfecto.
2. La cuestión ética
Actualmente, se están llevando a cabo muchas discusiones y debates sobre la ética y la seguridad de la IA. A medida que las nuevas innovaciones impactan nuestras vidas diarias, como ha sucedido en el caso de las redes sociales a lo largo de la última década, se necesitan regulaciones y protecciones para salvaguardar nuestros intereses.
En el sector de las ONG, surge un importante problema ético en torno al uso de herramientas de generación de imágenes. Los programas de IA para generar imágenes examinan una gran cantidad de datos disponibles en el dominio público, que incluyen imágenes existentes, para producir nuevas imágenes basadas en lo que está disponible. Por lo tanto, las imágenes producidas por IA se basan en imágenes reales. El producto final creado por el software llevará los mismos sesgos que los conjuntos de datos o fuentes que se utilizaron para crearlo. Además, es importante tener en cuenta que cualquier imagen creada por un software de IA no está protegida por derechos de autor, legalmente solo las creaciones humanas pueden ser protegidas por derechos de autor.
3. El problema del sesgo
Dado que las herramientas de IA utilizan conjuntos de datos disponibles públicamente, como imágenes y contenido textual en internet, es evidente que también arrastrarán sesgos y no siempre serán totalmente correctas desde el punto de vista factual. Herramientas de IA como ChatGPT perpetúan comportamientos discriminatorios y pueden amplificar el racismo, el sexismo, el capacitismo y otras formas de discriminación, ya que actualmente carecen de regulación. Por lo tanto, es importante que tengas en cuenta que el modelo de IA con el que estás interactuando probablemente perpetuará estos sesgos y comportamientos discriminatorios.
Las imágenes generadas por estas herramientas perpetúan estos sesgos y al ser generadas por computadoras, siempre es mejor utilizar imágenes reales de seres vivos que reflejen a personas y emociones reales. Si deseas crear una imagen más conceptual o abstracta, las herramientas de generación de imágenes basadas en IA podrían ser una ayuda útil en tu proceso creativo, ya que te permitirán experimentar con lo posible.
Antes de publicar o utilizar de forma pública cualquier contenido producido por IA, asegúrate siempre de que tú y tu equipo verifiquen la exactitud de lo que se ha generado.
4. La importancia de la indicación
La forma en que obtenemos información de estas herramientas de IA es a través de indicaciones, un proceso conocido como ingeniería de indicaciones. La ingeniería de indicaciones consiste en estructurar el texto de forma que pueda ser interpretado y comprendido por un modelo de IA generativo.
Cuanto más específica sea tu indicación y más contexto background proporciones, mejores resultados obtendrás.
5. El uso de ChatGPT para prepararse para entrevistas de prensa.
En nuestro trabajo como profesionales de los medios en este sector, a menudo nos encargan preparar a nuestros portavoces sobre temas relevantes antes de una entrevista con los medios de comunicación. Podemos utilizar herramientas de IA como ChatGPT para planificar preguntas y reacciones específicas basadas en el tema, el entrevistador o incluso el contenido de una publicación y su audiencia objetivo.
Por ejemplo, si le pido a ChatGPT que argumente por qué los países deben proporcionar Ayuda Oficial al Desarrollo (AOD), trataría de proporcionar la mayor cantidad de contexto posible sobre lo que estoy buscando. ¿Qué tipo de entrevista es? ¿Quién es la audiencia objetivo? A continuación, puedes ver mi indicación y lo que ChatGPT generó como respuesta.
Como puedes ver, lo que ChatGPT crea es un guion de la entrevista imaginada que se basa en algunos de los argumentos clave sobre la AOD. Sin embargo, utiliza un lenguaje desactualizado, como “países en desarrollo”, “desarrollados” y “menos afortunados”, lo cual demuestra las limitaciones de ChatGPT y la falta de sutileza en la herramienta y la indicación. Una forma de superar esto podría ser solicitarle a la herramienta que evite usar ciertas palabras.
Si estás preparando a tu portavoz para una entrevista con un periodista prominente, puedes mencionar el nombre del periodista en la indicación para obtener ejemplos de las preguntas que podrían hacer en su estilo, como Andrew Marr de LBC o Nick Robinson de BBC Radio 4. Dado que estas personas son conocidas, el modelo tiene suficiente información sobre ellas en internet para generar preguntas en su tono de voz.
Como hemos visto, los programas de IA, como ChatGPT, son útiles para apoyar la creación de mensajes y para predecir el tipo de preguntas que los periodistas podrían hacer en una entrevista. Sin embargo, siempre debemos recordar que las herramientas de IA son solo eso: una herramienta y no una solución. No podemos depender de ellas para producir todo nuestro contenido o productos finales, pero sí pueden ser utilizadas como punto de partida.
FAQ:
Preguntas frecuentes
¿Las herramientas de IA garantizan un producto final perfecto?
No, las herramientas de IA como ChatGPT pueden ser utilizadas como punto de partida para la creación de contenido, pero debes tener en cuenta que no generarán un producto final perfecto. Aunque aprenden patrones a partir de los datos disponibles en internet, no “piensan” como los humanos y, por lo tanto, no pueden garantizar resultados completamente acertados.
¿Qué pasa si las imágenes producidas por herramientas de generación de imágenes de IA contienen sesgos?
Las imágenes producidas por herramientas de generación de imágenes de IA pueden contener sesgos, ya que se basan en conjuntos de datos disponibles públicamente que pueden estar sesgados en sí mismos. Es importante tener esto en cuenta y considerar utilizar imágenes reales que representen a personas y emociones reales, en lugar de depender únicamente de imágenes generadas por IA.
¿Se pueden evitar los sesgos y comportamientos discriminatorios de las herramientas de IA?
Actualmente, las herramientas de IA como ChatGPT no están reguladas y pueden perpetuar sesgos y comportamientos discriminatorios. Es vital ser consciente de esto al interactuar con estas herramientas. Sin embargo, se pueden tomar medidas, como proporcionar indicaciones específicas y contextuales, para reducir los sesgos en los resultados generados por la IA.
¿Las herramientas de IA pueden ser utilizadas para preparar a los portavoces en entrevistas de prensa?
Sí, las herramientas de IA como ChatGPT pueden ser utilizadas para planificar preguntas y reacciones específicas antes de una entrevista de prensa. Al proporcionar indicaciones claras y contextualmente relevantes, puedes obtener respuestas basadas en los temas, el entrevistador y la audiencia objetivo. Sin embargo, siempre debes revisar y verificar la exactitud de las respuestas generadas antes de utilizarlas públicamente.