Arsenii Alenichev exploró frases como «Médicos africanos negros que atienden a niños blancos que sufren» y «Un curandero africano tradicional está ayudando a niños blancos pobres y enfermos» en un experimento con un programa de inteligencia artificial diseñado para generar imágenes similares a fotografías.
El propósito de este experimento era desafiar el estereotipo de los «salvadores blancos y niños negros que sufren» y cambiar la percepción en la salud global, según Alenichev. Aunque no se trató de un estudio riguroso, como lo señala el científico social y becario postdoctoral de la Colaboración Global de Ética en Enfermedades Infecciosas de Oxford-Johns Hopkins, formó parte de un conjunto de investigaciones para comprender mejor cómo funcionan los generadores de imágenes de IA.
En su pequeña escala de exploración, Alenichev observó que, a pesar de las especificaciones, el programa de IA tendía a representar a los niños como negros en la mayoría de los casos, y en aproximadamente 22 de más de 350 imágenes, los médicos eran blancos.
Este trabajo se enmarca en un estudio más amplio sobre imágenes relacionadas con la salud global, que Alenichev está llevando a cabo junto a su asesora, la socióloga de Oxford Patricia Kingori. Para este experimento, utilizaron una plataforma de inteligencia artificial llamada Midjourney debido a su capacidad para generar imágenes realistas.
Alenichev y su equipo no se limitaron a una única frase de prueba. Para obtener imágenes de IA que se ajustaran a sus especificaciones, colaboraron con el antropólogo Koen Peeters Grietens del Instituto de Medicina Tropical de Amberes. Descubrieron que la IA funcionaba bien cuando se le pedía que mostrara a médicos africanos negros o a niños blancos sufriendo, pero surgieron problemas cuando combinaron estas dos solicitudes.
Para abordar esta dificultad, decidieron ser más específicos. Introdujeron frases que mencionaban a médicos africanos negros que proporcionaban alimentos, vacunas o medicinas a niños blancos pobres o que sufrían. También solicitaron imágenes que representaran diferentes escenarios de salud, como «paciente con VIH recibiendo atención».
Sin embargo, a pesar de sus esfuerzos, el equipo no pudo obtener imágenes de IA que reunieran a médicos negros y pacientes blancos en una sola imagen. Por ejemplo, de 150 imágenes de pacientes con VIH, 148 eran negras y solo dos eran blancas. Algunas imágenes incluso presentaban fauna africana, como jirafas y elefantes, junto a médicos negros.
El equipo también realizó múltiples solicitudes para que los curanderos africanos tradicionales ayudaran a los niños blancos. De 152 resultados, 25 mostraban a hombres blancos usando ropa con estampados llamativos que hacían referencia a colores comunes en las banderas africanas. Una imagen incluso mostraba a un curandero africano negro sosteniendo las manos de un niño blanco sin camisa que llevaba múltiples collares de cuentas, una versión caricaturizada de la vestimenta africana, según Alenichev.
El artículo publicado en Lancet Global Health en agosto destaca la falta de modernidad percibida en las imágenes generadas por IA y cómo estas representaciones evocan una época que, si bien nunca existió, persiste en la imaginación de quienes mantienen prejuicios negativos sobre África.
El uso de IA para generar imágenes plantea desafíos en términos de sesgos y estereotipos, como señala Malik Afegbua, cineasta nigeriano, quien intentó utilizar la IA para crear representaciones de ancianos africanos en desfiles de moda en Instagram. Aunque pudo lograr algunas imágenes que desafiaban los estereotipos, también reconoció las limitaciones de la IA en este sentido.
Estas problemáticas no son teóricas, ya que organizaciones de salud global han empezado a experimentar con IA para crear imágenes. Por ejemplo, una imagen compartida por el Convenio Marco para el Control del Tabaco de la Organización Mundial de la Salud fue creada con IA y generó controversia debido a su representación de un niño negro con ropa sucia en un campo arado junto a la frase «Cuando fumas, me muero de hambre».
El uso de IA para generar imágenes plantea desafíos relacionados con los sesgos y estereotipos, y la comunidad de salud global debe considerar quién es responsable de cuestionar estas imágenes sesgadas y cómo se deben abordar estos problemas. La IA, a pesar de su poder, no es completamente neutral ni esta libre de los prejuicios racistas que circulan en Internet, y se necesita un mayor análisis sobre los sesgos en la inteligencia artificial.
Afroféminas
Descubre más desde Afroféminas
Suscríbete y recibe las últimas entradas en tu correo electrónico.