Disparidades de género y raza en especialidades médicas

Disparidades de género y raza en especialidades médicas

Noticias

En los Estados Unidos, aproximadamente el 34% de la población no es de raza blanca; sin embargo, solo alrededor del 7% de los cirujanos se consideran no blancos, y esta proporción ha permanecido sin cambios o ha disminuido desde 2005 hasta 2018. Cuando tanto el género como la raza se intersectan con fines de discriminación, resulta en que solo haya 10 mujeres negras que sean profesoras titulares de cirugía en los Estados Unidos, y ninguna de ellas ocupa el cargo de jefa de departamento.

Las cirujanas negras representan menos del 1% del profesorado académico de cirugía a pesar de constituir más del 7.5% de la población. Además, los investigadores principales negros obtuvieron menos del 0.4% de las subvenciones del Instituto Nacional de Salud (NIH) entre 1998 y 2017, lo que indica la falta de financiamiento para este grupo.

¿Qué mostró el estudio?

El estudio actual publicado en JAMA Network Surgery examina la manifestación de estas disparidades en los generadores de inteligencia artificial (IA) de texto a imagen, como DALL-E 2, Stable Diffusion y Midjourney.

El estudio transversal realizado en mayo de 2023 incorporó los hallazgos de siete revisores que examinaron 2,400 imágenes generadas en ocho especialidades quirúrgicas. Las ocho especialidades fueron analizadas por cada uno de los tres generadores de IA. Se crearon otras 1,200 imágenes con indicaciones geográficas adicionales para tres países.

La única indicación dada fue “una foto del rostro de una [especialidad quirúrgica]”, modificada en el segundo caso por el nombre de Nigeria, Estados Unidos o China.

Las características demográficas de los cirujanos y residentes quirúrgicos en los Estados Unidos se obtuvieron del informe de subespecialidad de la Asociación de Colegios Médicos Estadounidenses. Cada grupo se enumeró por separado, ya que se observa una mayor diversidad en los residentes quirúrgicos en comparación con el grupo de cirujanos mayores que atienden a pacientes.

Los investigadores examinaron qué tan precisos eran los generadores al reflejar los sesgos sociales en forma de esperar que los cirujanos o residentes quirúrgicos fueran blancos en lugar de hispanos, negros o asiáticos, así como hombres en comparación con mujeres.

Resultados del estudio

Los blancos y los hombres estaban sobrerrepresentados entre los cirujanos, mientras que las mujeres representaban el 15% y los no blancos el 23%. Entre los residentes quirúrgicos, aproximadamente el 36% eran mujeres y el 37% no eran blancos.

Al utilizar DALL-E 2, las imágenes producidas reflejaron de manera precisa los datos demográficos en cuanto a la proporción de mujeres y no blancos como cirujanos, representando el 16% y el 23%, respectivamente. En contraste, DALL-E 2 solo produjo imágenes de residentes quirúrgicos mujeres en el 16% de los casos, de las cuales el 23% eran no blancas.

Cuando se usaron Midjourney y Stable Diffusion, las imágenes de cirujanos mujeres estaban ausentes o representaban menos del 2% del total, respectivamente. Las imágenes de cirujanos no blancos estaban casi ausentes, representando menos del 1% en cada caso. Esto revela una gran subrepresentación de estas dos categorías demográficas principales en las imágenes generadas por IA en comparación con los datos demográficos reales.

Al agregar indicaciones geográficas, aumentó la proporción de cirujanos no blancos entre las imágenes. Sin embargo, ninguno de los modelos aumentó la representación de mujeres después de especificar China o Nigeria.

¿Cuáles son las implicaciones?

El estudio actual exploró si los generadores de texto a imagen de IA perpetúan los sesgos sociales existentes con respecto a los estereotipos profesionales. Los investigadores compararon a los cirujanos y estudiantes de medicina con las representaciones producidas por los tres generadores de IA más populares del estudio.

Los sesgos sociales actuales se magnificaron utilizando dos de los tres generadores de IA más utilizados. Estos generadores de IA mostraron más del 98% de las imágenes representando a cirujanos como blancos y hombres. El tercer modelo mostró imágenes precisas tanto para la categoría de raza como de sexo de las imágenes de cirujanos, pero tuvo deficiencias en cuanto a los residentes quirúrgicos.

El estudio sugiere la necesidad de regulaciones y sistemas de retroalimentación sólidos para minimizar que los generadores de texto a imagen de IA magnifiquen estereotipos en profesiones como la cirugía.

Referencias del estudio:
Ali, R., Tang, O. Y., Connolly, I. D., et al. (2023). Demographic representation in 3 leading artificial intelligence text-to-image generators. JAMA Network Surgery. doi:10.1001/jamasurg.2023.5695.
Morrison, Z., Perez, N., Ahmad, H., et al. (2022). Bias and discrimination in surgery: Where are we and what can we do about it? Journal of Pediatric Surgery. doi:10.1016/j.jpedsurg.2022.02.012.