jueves, abril 16

La paradoja del activista digital: contra la IA desde las entrañas del monstruo

Es muy de estos tiempos que las críticas más vehementes contra nuestro uso de inteligencia artificial lleguen desde cuentas de Instagram y TikTok. Incluso desde cuentas racializadas que se autodefinen como decoloniales. Estas plataformas, propiedad de Meta y ByteDance respectivamente, representan exactamente aquello que dicen combatir. Consumen recursos masivos, extraen datos sin cesar y operan bajo la misma lógica capitalista que supuestamente rechazan. La diferencia es que han naturalizado su presencia hasta hacerse invisibles.

Cuando Afroféminas lanzó AfroféminasGPT, una herramienta de inteligencia artificial entrenada específicamente con pensamiento negro y decolonial, surgieron las muy predecibles acusaciones. Que si colaboramos con OpenAI, una empresa «extractivista». Que si los centros de datos consumen agua y electricidad de manera irresponsable. Que si la tecnología nos está destruyendo. Lo curioso es que estas críticas se lanzan desde plataformas cuya infraestructura tecnológica es idéntica, cuyo modelo de negocio es el mismo y cuyo impacto ambiental es, proporcionalmente, mucho mayor.

La pregunta es, ¿por qué señalar el uso de ChatGPT como herramienta antirracista mientras se postea desde Instagram? ¿Acaso Instagram no pertenece a Meta, que gestiona algunos de los centros de datos más grandes del mundo? ¿Acaso TikTok no requiere exactamente la misma infraestructura que se critica? La respuesta tiene más que ver con la comodidad moral que con la coherencia política.

Los centros de datos globales que sostienen nuestras vidas digitales representan entre el 2% y el 3% del consumo eléctrico mundial. En 2024, estos centros consumieron 415 TWh de electricidad a nivel mundial, equivalente al consumo anual de toda Francia. Las proyecciones indican que este consumo podría duplicarse para 2030, alcanzando los 1.065 TWh. Esto no es un problema exclusivo de la inteligencia artificial. Es la consecuencia directa de décadas de consumo digital masivo.

¿Qué sostienen estos centros de datos? Cuando vemos una película en Netflix consumimos aproximadamente 1 GB de datos por hora de visualización en calidad estándar, llegando hasta 3 GB en HD. Ver 30 minutos de Netflix genera 1,6 kilos de CO₂, equivalente a conducir 6,5 kilómetros. YouTube puede consumir 462 MB por hora en calidad automática. El streaming de vídeo representó más del 80% del tráfico total de internet en 2020.

Las redes sociales tampoco son inocentes. Instagram, TikTok y WhatsApp representan entre el 7,8% del consumo total de datos móviles. En India, el 40% de los datos móviles de jóvenes se destinan exclusivamente a Instagram Reels. Los vídeos cortos y el desplazamiento infinito queman ancho de banda constantemente. Los centros de datos procesaron más de 20 exabytes de datos diarios en 2023 a nivel mundial. En el Estado español, estos centros consumieron más de 6 TWh de electricidad en 2024, cifra que se prevé duplicar para 2030.

Los centros de datos de Google consumieron 12.700 millones de litros de agua en 2021 para refrigeración de toda su infraestructura, que incluye buscadores, correos electrónicos, almacenamiento en la nube, YouTube y muchos otros servicios. Microsoft registró un aumento del 37% en el consumo de agua en sus centros de Iowa desde 2021. Amazon Web Services en Aragón (Epaña) consumirá más de 10.900 GWh por año una vez estén a pleno rendimiento, más energía que toda la comunidad autónoma.

Sí, la inteligencia artificial consume recursos. El entrenamiento de modelos grandes como GPT-3 requirió 78.437 kWh de electricidad, equivalentes al consumo de un hogar español durante 23 años. Ese dato es real y debe preocuparnos. La Agencia Internacional de la Energía proyecta que los centros de datos especializados en inteligencia artificial cuadruplicarán su demanda energética entre 2025 y 2030. Actualmente, la IA representa alrededor del 20% del consumo eléctrico de los centros de datos, y esta proporción podría alcanzar casi el 50% para 2030.

Estas cifras son alarmantes. Empresas como OpenAI, Google, Meta y Amazon tienen responsabilidades enormes. Deben rendir cuentas sobre su consumo de recursos. La transición hacia energías renovables en estos centros de datos es impostergable. La transparencia sobre el uso de agua y la huella de carbono debe ser obligatoria. No existe exención de responsabilidad para ninguna corporación tecnológica.

La crítica al impacto ambiental de la tecnología es necesaria y legítima. Exigir políticas públicas que regulen el extractivismo digital es fundamental. Pero hay una diferencia sustancial entre la crítica estructural y el moralismo selectivo.

La crítica estructural examina cómo el capitalismo tecnológico explota recursos naturales y perpetúa desigualdades globales. Analiza cómo los centros de datos se instalan en países del Sur Global para extraer sus recursos mientras los beneficios se acumulan en el Norte. Cuestiona quién tiene acceso a estas tecnologías y quién decide sus usos. Señala que en 2024, Apple, Microsoft, Alphabet, Meta y Amazon lograron beneficios récords aumentando sus ganancias un 25,6%, sacrificando miles de trabajadores despedidos. Denuncia que la refrigeración representa casi el 40% del consumo energético de los centros de datos.

El moralismo selectivo, en cambio, señala proyectos específicos desarrollados por organizaciones pequeñas, mientras ignora su propio consumo tecnológico diario. Critica una herramienta de IA antirracista creada con recursos limitados, mientras utiliza sin cuestionamiento plataformas corporativas que consumen infinitamente más. Es, en definitiva, un privilegio disfrazado de conciencia ecológica o, peor aún, de discurso decolonial.

Porque aquí reside la contradicción más profunda. Personas racializadas que reivindican la decolonialidad lanzan críticas contra proyectos de comunidades oprimidas que intentan democratizar el acceso a tecnologías, mientras sus críticas viajan a través de la infraestructura de Meta o ByteDance. Utilizan plataformas que extraen datos de millones de usuarios en el Sur Global, que reproducen algoritmos racistas y que concentran poder económico en Silicon Valley. Pero esas plataformas son «normales», «cotidianas», «necesarias para el activismo».

AfroféminasGPT existe porque necesitábamos una herramienta que no reprodujera los sesgos coloniales de las IA generalistas. Porque queríamos un espacio donde el pensamiento de bell hooks, Angela Davis o Frantz Fanon pudiera dialogar sin distorsiones. Porque las mujeres negras merecemos tecnología que nos represente sin estereotipos ni violencias epistémicas.

Sí, utilizamos la infraestructura de OpenAI. También reconocemos que esa infraestructura consume recursos y que OpenAI tiene responsabilidades que debemos exigir. La alternativa no era la pureza tecnológica, que es imposible en el capitalismo actual. La alternativa era quedarnos fuera, permitir que otros sigan definiendo qué es el conocimiento negro, cómo se representa, qué voces importan. La alternativa era el silencio digital mientras esperábamos condiciones perfectas que nunca llegarán.

Quienes hacen activismo desde Instagram y TikTok, incluido Afroféminas, no están exentos de estas contradicciones. Cada publicación, cada vídeo, cada like alimenta exactamente el mismo sistema que critican. La diferencia es que han naturalizado estas plataformas como parte del paisaje digital cotidiano, mientras la inteligencia artificial aún conserva ese aura de novedad que la hace blanco de señalamientos morales.

El debate real no es si debemos usar o no tecnología. El debate real es quién controla esa tecnología, para qué se usa, quién se beneficia de ella y cómo podemos democratizar su acceso y sus fines. Afroféminas usa IA porque creemos que la tecnología puede estar al servicio del antirracismo, del feminismo negro y de la justicia social. No esperamos que el capitalismo tecnológico se reforme solo. Construimos alternativas dentro de las condiciones que existen, no dentro de las condiciones que desearíamos tener.

La crítica que llega desde redes sociales revela algo más profundo que la simple contradicción. Revela el clasismo implícito en cierto activismo digital, incluso en sectores que se proclaman decoloniales. Es más fácil señalar a otras que cuestionar el propio consumo tecnológico. Es más cómodo mantener el statu quo de las plataformas conocidas que explorar usos políticos de tecnologías emergentes. Es más seguro convertir el debate en un señalamiento moral que analizar qué intereses se benefician de que las comunidades oprimidas permanezcan fuera de esas herramientas.

Las comunidades negras, afrodescendientes, racializadas y del Sur Global no podemos permitirnos el lujo del purismo tecnológico. Vivimos en un mundo donde la tecnología ya media nuestras vidas, nuestro trabajo, nuestra organización política. Esperar a que exista una tecnología perfectamente ética y sostenible antes de usarla es condenarnos a la exclusión digital perpetua. Es permitir que otros definan las narrativas, los algoritmos, las bases de datos que nos representan o nos borran.

AfroféminasGPT no pretende ser perfecto. Pretende ser para nosotras. Una herramienta imperfecta en manos de mujeres negras que entienden la urgencia de tener tecnología que no nos violente. Una apuesta por construir alternativas epistémicas en el terreno digital. Una forma de resistencia que no espera condiciones ideales para actuar.

Mientras tanto, seguiremos viendo críticas lanzadas desde Instagram, que pertenece a Meta, una corporación que no solo acumula poder económico sino que lo ejerce activamente al servicio de quienes mandan. Meta ha cedido datos de usuarios a gobiernos sin orden judicial, ha desmantelado sus programas de verificación de hechos bajo presión política, y su fundador se sienta a la mesa con quienes legislan sobre los cuerpos de las mujeres y los derechos de las personas migrantes. Seguiremos viendo vídeos en TikTok, cuya matriz ByteDance ha entregado datos de usuarios a las autoridades chinas y ha ajustado sus algoritmos cuando los intereses del Estado lo han requerido. Estas plataformas no son espacios neutrales de activismo: son infraestructuras de poder que sirven al poder. No son herramientas que hayamos domesticado, son herramientas que nos gestionan.

Y seguiremos escuchando que usar inteligencia artificial para el antirracismo es inaceptable, como si la IA fuera una novedad peligrosa que acaba de irrumpir en nuestras vidas. Pero la inteligencia artificial lleva décadas entre nosotras, silenciosa e invisible, integrada en sistemas que nadie cuestionó porque nadie los veía. Los algoritmos de los sistemas de bienestar social ya decidían qué familias eran sospechosas de fraude, con un impacto desproporcionado sobre comunidades racializadas, mucho antes de que existiera ChatGPT. Los sistemas predictivos de las fuerzas de seguridad llevan lustros señalando barrios y perfiles —siempre los mismos— sin que ninguna cuenta de Instagram los denunciara. Las agencias de calificación crediticia, las aseguradoras, los servicios de migración y extranjería, los hospitales: todos llevan años tomando decisiones sobre nuestras vidas con modelos de IA que nunca pedimos que nos explicaran. Los grandes medios de comunicación utilizan IA para decidir qué titulares leer, qué noticias amplificar, qué voces silenciar. La IA no llegó con OpenAI. Llegó antes, sin debate, sin consentimiento, sin que nadie la llamara por su nombre.

La diferencia es que esa IA —la que nos clasifica, nos vigila, nos excluye— no genera indignación en las redes. No se hace viral. No produce debates en las cuentas decoloniales. Es la IA invisible, la que no tiene cara de chatbot, la que opera desde las instituciones y los mercados. Y contra esa, extrañamente, nadie lanza campañas desde Instagram.

La pureza tecnológica es un privilegio que las comunidades oprimidas no podemos permitirnos. La lucha está aquí, ahora, con las herramientas imperfectas que tenemos. El futuro no nos espera. Lo construimos con lo que hay, con quienes somos, con la conciencia de nuestras contradicciones y la claridad de nuestros objetivos políticos. Exigiendo responsabilidades a todas las corporaciones tecnológicas, incluidas aquellas cuyas herramientas utilizamos. Porque la crítica solo es coherente cuando se aplica con los mismos estándares a todos los actores del sistema, no cuando se reserva selectivamente para los proyectos que detestamos o queremos destruir.

En Afroféminas no vamos a participar en los juegos del hambre del activismo.

Afroféminas



Descubre más desde Afroféminas

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Deja un comentario

Descubre más desde Afroféminas

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo

Verificado por MonsterInsights