martes, marzo 24

Exclusión con disfraz de ética. Cuando la IA en manos negras incomoda

Imagina que presentas un proyecto que utiliza inteligencia artificial. Llevas tiempo trabajando con estas herramientas. Conoces sus posibilidades y sus límites. Has creado tus propias herramientas. Y entonces alguien en la sala, generalmente alguien blanco (hombre o mujer) con un cargo en una organización social, levanta la mano y dice que la IA no es ética.

No dice que tu proyecto sea malo. No dice que tus fuentes sean incorrectas. No dice que tu propuesta carezca de rigor. Dice que la IA no es ética. Y con esa frase, el debate se cierra. Tú, la mujer negra que domina la herramienta, quedas fuera de la conversación. No porque no sepas. Precisamente porque sabes.

¿Te ha pasado?

Esto tiene un nombre. Se llama exclusión epistémica reactiva. Y es una de las formas más sofisticadas de racismo institucional que opera hoy en las organizaciones sociales españolas.

La exclusión epistémica clásica, tal como la describió la filósofa Miranda Fricker, funciona así. A una persona racializada no se le da credibilidad porque se asume que no sabe, que no tiene formación, que su experiencia no cuenta como conocimiento. Es la vieja historia. La mujer negra que habla y a la que no se escucha. Eso ya es grave. Lo que está pasando con la inteligencia artificial es otra cosa. Es peor. La exclusión se activa ahora ante la competencia del sujeto racializado, no ante su ignorancia. Cuando una mujer negra demuestra que domina una herramienta tecnológica que el grupo privilegiado no domina, se invierte la jerarquía esperada de quién «debería» saber sobre tecnología. Y eso genera una reacción.

Esa reacción adopta la forma más insospechada. Adopta la forma de la ética.

Sara Ahmed, feminista británico-australiana de origen pakistaní, lleva años analizando cómo las instituciones usan el lenguaje de la diversidad y la inclusión para protegerse sin cambiar realmente. En su libro On Being Included demuestra que cuando una institución dice «somos inclusivas» eso funciona muchas veces como sustituto de serlo de verdad. El lenguaje ético se convierte en una performance. Una representación que protege la imagen de la institución y al mismo tiempo bloquea a quienes intentan cambiarla desde dentro.

Con la inteligencia artificial está pasando exactamente lo mismo. Organizaciones que trabajan con personas migrantes, con comunidades racializadas, con mujeres en situación de vulnerabilidad, rechazan la IA por «no ética». Hasta ahí, una posición legítima. El problema es que esas mismas organizaciones operan cotidianamente dentro de infraestructuras digitales cuyos modelos extractivos no problematizan. Usan redes sociales que extraen datos masivos. Usan plataformas de videoconferencia con servidores en Estados Unidos. Usan herramientas de gestión que venden información de sus usuarios. Nada de eso genera la misma alarma ética. La reflexión ética se aplica de manera asimétrica. Se activa selectivamente cuando una mujer negra propone usar la IA para empoderar a su comunidad. No se activa cuando la propia organización depende de tecnologías igual de cuestionables para su funcionamiento diario.

¿Por qué? Porque el discurso ético contra la IA cumple una función que no tiene nada que ver con la ética. Cumple una función de conservación de posiciones. Pierre Bourdieu lo explicó hace décadas. Cuando un grupo dominante siente que su posición está amenazada, moviliza los recursos simbólicos que tiene a su alcance para protegerla. En el mundo de las organizaciones sociales en España, caracterizado por la precariedad laboral y la competencia feroz por una financiación limitada, la aparición de herramientas que podrían dar autonomía real a las comunidades que esas organizaciones dicen atender es una amenaza directa al modelo asistencialista que justifica su existencia. Si las comunidades racializadas pueden usar la IA para interpretar sus propios informes médicos, redactar sus propios proyectos, descifrar los códigos institucionales que las excluyen, entonces ¿para qué necesitan al intermediario blanco?

La ética se convierte en el disfraz del privilegio.

Nirmal Puwar acuñó otro concepto que da luz a esta dinámica. Lo llamó space invaders. Los cuerpos que no se esperan en determinados espacios de poder. La mujer negra en la sala de juntas. El migrante en la universidad. La persona racializada en el congreso de tecnología. Puwar demostró que esos cuerpos son percibidos como fuera de lugar y generan, además, una reacción activa del espacio que los expulsa. La mujer negra que domina la IA no es solo un cuerpo fuera de lugar. Es un saber fuera de lugar. Y eso es lo que el sistema no tolera.

¿Cómo identificar cuándo la preocupación ética es genuina y cuándo es un mecanismo de exclusión? Hay algunas claves. Si la crítica a la IA se dirige exclusivamente a proyectos liderados por personas racializadas y no a las herramientas que la propia organización usa, no es ética. Es gatekeeping. Si la persona que cuestiona la IA no puede explicar qué modelo de lenguaje usa ChatGPT ni qué son los datos de entrenamiento, su preocupación no es técnica ni ética. Es posicional. Si la organización rechaza la IA para los proyectos de empoderamiento comunitario y al mismo tiempo la usa para redactar sus propias memorias de actividad, la incoherencia habla por sí sola. Si la reflexión ética sobre la tecnología nunca incluye a las personas racializadas como interlocutoras válidas —solo como beneficiarias pasivas—, eso es tokenismo. Y si la conclusión de la reflexión ética es siempre que las comunidades racializadas no deberían usar determinadas herramientas, pregúntate a quién beneficia esa conclusión.

Patricia Hill Collins escribió que las mujeres negras han tenido que luchar contra la opresión externa y, a la vez, contra la idea de que no pueden ser las que crean las teorías. El concepto de outsiders inside describe exactamente eso. Estar dentro de un espacio y al mismo tiempo ser tratada como ajena. La mujer negra que sabe de IA está dentro del debate tecnológico y al mismo tiempo es expulsada de él. No por lo que dice. Por quién es.

Muchas organizaciones sociales en España tienen un problema que no quieren mirar. Reproducen en su interior las mismas lógicas de exclusión racial que dicen combatir. La presencia de mujeres negras en espacios de decisión tecnológica es mínima. Las organizaciones que trabajan «para» comunidades racializadas rara vez son lideradas «por» personas racializadas. Y cuando una mujer negra aparece con herramientas, conocimiento y capacidad de acción autónoma, el sistema no se alegra. La cuestiona. Le pide credenciales que no pide a sus pares blancos. Le exige una justificación ética que no exige a quien usa las mismas tecnologías desde el privilegio.

La pregunta no es si la inteligencia artificial es ética o no. La pregunta es quién tiene derecho a decidir qué es ético y para quién. Quién se arroga la autoridad de decir qué herramientas pueden usar las comunidades negras y racializadas. Quién decide que las mujeres negras no deberían saber de tecnología.

La respuesta siempre es la misma. Quien tiene miedo de perder su posición.

Desde Afroféminas llevamos más de una década construyendo pensamiento crítico propio. Hemos creado herramientas de inteligencia artificial diseñadas desde el pensamiento negro y decolonial. Herramientas que hemos conquistado para nosotras. Que no necesitan la validación de quienes nunca han experimentado la exclusión que estas herramientas ayudan a nombrar y a combatir. La tecnología no es el enemigo. El enemigo es quien usa la ética como cerrojo para que las llaves sigan en las mismas manos de siempre.

Antoinette Torres Soler

Directora y Fundadora de Afroféminas
Lic. Filosofía. Máster en Comunicación de Empresa y Publicidad.
Cubana y española



Descubre más desde Afroféminas

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Deja un comentario

Descubre más desde Afroféminas

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo

Verificado por MonsterInsights