
Los algoritmos de las redes sociales prometen conectarnos, pero bajo su código se esconde un sistema de exclusión racial sistémico. En plataformas como TikTok, donde el 60% del contenido consumido depende de recomendaciones automatizadas, las creadoras negras enfrentan una batalla silenciosa para no ser borradas de los feeds globales por el color de su piel. Podría parecer un error técnico, pero es el reflejo digital de un racismo estructural que prioriza la blanquitud como norma universal.
Cuando la IA reproduce estereotipos coloniales
Los sistemas de recomendación aprenden de nuestros prejuicios. El proyecto español AlgoRace ha documentado cómo la inteligencia artificial no es neutral, sino que reproduce y amplifica los intereses y sesgos del poder, convirtiéndose en un mecanismo más de racialización y exclusión. Un ejemplo paradigmático ocurrió en 2020, cuando TikTok suprimió videos con los hashtags #BlackLivesMatter y #GeorgeFloyd durante las protestas antirracistas en Estados Unidos, lo que obligó a la plataforma a pedir disculpas públicas a la comunidad afroestadounidense.
En España, investigaciones como las de la Fundación Ellis Alicante han demostrado que los filtros de belleza de aplicaciones populares aclaran automáticamente los tonos de piel oscuros y afinan narices anchas, equiparando belleza con rasgos caucásicos. Estos filtros homogeneizan la estética facial, además de reducir la diversidad y reforzar los estándares raciales hegemónicos.
El colorismo digital
La discriminación algorítmica intensifica el colorismo. Una investigación de Sony reveló que los sistemas de visión artificial tienen un 34% más de errores con tonos de piel amarillos y rojizos que con los claros, lo que se traduce en menor visibilidad para creadoras afrolatinas de tez más oscura en plataformas como TikTok. Este sesgo se refleja en la práctica: los videos sobre cuidado del cabello rizado o denuncias de racismo reciben hasta un 40% menos de interacciones que contenidos similares de influencers blancas.
El fenómeno “En mi país soy un 2, pero en Perú soy un 10”, viralizado en 2025, ejemplifica cómo los algoritmos refuerzan jerarquías coloniales y estereotipos raciales, asociando los tonos claros a países “desarrollados” y relegando la diversidad a la invisibilidad.
España y sus deudas legislativas
En el ámbito legal, el anteproyecto de Ley Orgánica contra el racismo, la discriminación racial y formas conexas de intolerancia, reconoce la existencia del racismo estructural y proponen medidas para prevenir, sancionar y reparar la discriminación racial, incluyendo la obligación de auditar los algoritmos y sancionar las conductas discriminatorias en el ámbito digital. Sin embargo, la ley está paralizada en el Congreso, ya que salvo excepciones muy minoritarias, no existe ningún interés de los partidos políticos por aprobarla.
“La inteligencia artificial, los algoritmos y los grandes conjuntos de datos fomentan la discriminación de personas racializadas, (re)produciendo opresión racial”, señala el equipo de AlgoRace.
Al mismo tiempo, varias influencers han denunciando restricciones a sus denuncias de racismo, por “lenguaje ofensivo”, mientras contenidos racistas acumulaban millones de visualizaciones, evidenciando la persistencia del sesgo algorítmico y la falta de mecanismos de reparación efectivos.
Hacia una insurgencia digital antirracista
La solución no está en ajustar los algoritmos, sino en cuestionar quién los diseña y bajo qué parámetros. El equipo de AlgoRace, formado por activistas e investigadores en inteligencia artificial y antirracismo, insiste en la necesidad de abrir los espacios de debate y decisión tecnológica a las personas y organizaciones racializadas, para combatir el sesgo racial de raíz. En Afroféminas creemos en la formación en programación e IA para mujeres racializadas, mientras campañas como #VisibleAlgorithm exigen:
- –Transparencia radical: publicación periódica de datos demográficos sobre el contenido promocionado.
- –Cuotas de diversidad: garantizar la presencia de al menos un 30% de creadores racializados en los feeds recomendados.
- –Comités éticos: participación de organizaciones antirracistas en el diseño y supervisión de algoritmos.
Como demostró la viralización BlackTikTokStrike en 2021, la presión colectiva puede fisurar los muros digitales. Creadores negros, principalmente en Estados Unidos, se organizaron para no crear coreografías para la canción «Thot Shit» de Megan Thee Stallion, como protesta por la falta de reconocimiento y apropiación cultural de sus contribuciones por parte de creadores no negros. Este movimiento, liderado por figuras como Erick Louis, acumuló más de 6.5 millones de visualizaciones bajo el hashtag #BlackTikTokStrike y buscaba visibilizar cómo los algoritmos de TikTok y la falta de crédito afectaban a los creadores negros, mientras creadores blancos obtenían mayores beneficios y visibilidad El reto no es hacerse visibles para el algoritmo, más bien reprogramar las estructuras que convierten la negritud en problema técnico.

La batalla por la visibilidad digital es la nueva frontera del antirracismo. No estamos aquí para ser incluidas, estamos aquí para desmantelar el sistema. En TikTok y en cada rincón de internet, las creadoras negras están reescribiendo el código de la resistencia.
Redacción Afroféminas
Si has sufrido racismo, o conoces alguien que lo haya sufrido, contáctanos. Podemos ayudaros a denunciar.
Tu mensaje se ha enviado
Descubre más desde Afroféminas
Suscríbete y recibe las últimas entradas en tu correo electrónico.
