martes, diciembre 3

Algoritmos Colonialistas y Discriminatorios:La Justicia Socio-Digital no es neutra ni es apolítica. Repensando la pandemia COVID-19

Hoy en día habitamos Internet buena parte del día, las geografías cibernéticas en las que nos relacionamos desarrollan epistemologías de violencia estructural y concentración de poder que fomentan narrativas racistas, discriminatorias e injustas. Ricaurte (2019) explica que la epistemología centrada en los datos debe entenderse como “una expresión de la colonialidad del poder, manifestada como la imposición violenta de formas de ser, pensar y sentir que conduce a la expulsión de los seres humanos del orden social, niega la existencia de mundos y epistemologías alternativas y amenaza la vida en la Tierra” [1].

Las discriminaciones tecnológicas de antes y de ahora

Anteriormente la discriminación tecnológica estaba presente en el espacio físico. Por ejemplo, en 1980, numerosos puentes de Nueva York se construyeron más bajos para impedir el paso de autobuses en los que viajaban personas de color, migrantes, personas de bajos recursos económicos, entre otros grupos marginados. El objetivo era evitar que la raza blanca se mezclara con estas comunidades [2]. En este caso, las tecnologías se usaban para excluir y desacreditar cuerpos racializadosen el entorno urbano.

Actualmente estas nociones están presentes en el contexto digital a lo largo de sociedades datadas [3] que funcionan a partir de racionalidades hegemónicas. El nuevo orden internacional se encuentra en la nube y conlleva implicaciones en las políticas públicas y en la democracia. En particular, la pandemia COVID-19 se ha usado para acreditar el seguimiento de contagios por medio de aplicaciones y herramientas de extracción de datos. Estas tecnologías se han gestionado sin participación ciudadana, lo cual ha ocasionado numerosos impactos a minorías raciales y étnicas. La vigilancia plantea dilemas en el equilibrio de las libertades individuales y del bien colectivo. Los pueblos indígenas, por ejemplo, no cuentan con acceso a la información recabada a lo largo de la pandemia COVID-19, así que sus datos pueden ser usados para estigmatizarles ahora en el contexto socio-digital [4].

Por su parte, las tecnologías de reconocimiento facial muestran sesgos raciales al contar con una precisión del 99% para hombres blancos, a diferencia del 35% que suscribe para pieles oscuras, negras o morenas [5]. Sumado a esto, los modelos de vigilancia racializada en respuesta al COVID-19 han afectado a migrantes africanos, quienes han sido sometidos a discriminaciones generalizadas como  pruebas forzadas o cuarentenas injustificadas [6]. La crisis sanitaria también ha reforzado discursos políticos antimigratorios que favorecen actitudes xenófobas [7]. Asimismo, los poderes dracronianos del COVID-19 han ocasionado que miles de manifestantes sean castigados injustamente [8].

Entonces, ¿hasta que punto se deben quebrantar los derechos humanos para asegurar el cumplimiento de las actuales medidas de salud pública?

Para contestar a esta pregunta, sumemos otra preocupación de alto riesgo, la cual implica un panorama en que los resultados de falsos positivos son generados por algoritmos hegemónicos. En este marco, las desviaciones socioculturales de (in)seguridad se adjudican continuamente a cuerpos racializados [9]. En decir, la percepción de peligro al contagio se vincula a grupos marginados (negrxs, migrantes, latinxs, pueblos indígenas, personas en pobreza, grupos LGBT, entre otros). Estas narrativas se propagan a lo largo de turbios modelos de medición, rastreo, predicción y regulación de cuerpos y patógenos. Son discursos que alimentan el odio y la discriminación por medio de plataformas sanitarias creadas y supervisadas por actores privados como Google, Apple y Palantir. Por ejemplo, «Project Nightingale» de Google, ha recopilado los datos médicos de más de cincuenta millones de personas. Sin embargo, el proyecto no puede ser auditado y no tiene garantías legales que permitan desarrollar un marco regulatorio sobre como se recaban y usan los datos de todas estas personas [10].

Así, estos métodos de obtención de información personal en tiempos de COVID-19, generan contextos que estimulan la automatización de situaciones desfavorables y propician el resurgimiento de concepciones biológicas que desacreditan a las personas por su origen racial o étnico [11]. De esta manera, la falta de justicia socio-digital afecta los derechos humanos de formas nunca antes vistas, justifica violencias, automatiza estigmas socioculturales, descalifica a las minorías, causa daños socioeconómicos, entre otros agravios [12]

Entonces, contestando a la pregunta, los derechos humanos se infringirán exponencialmente en tanto las respuestas para contrarrestar las violencias no sean efectivas y rápidas. En este sentido, académicas, académicos y activistas advierten que gran parte de lo que aceptamos hoy como «medidas excepcionales para tiempos excepcionales»llegó para quedarse [13].

Así que, ¿cómo lograr justicia socio-digital en plena crisis sanitaria?

El actual escenario dificulta la construcción de justicias que promuevan la revisión de terceros. Esto se debe a que la mayoría de las tecnologías son centralizadas, no son transparentes y están desarrolladas con código cerrado. En la práctica existen pocas oportunidades de apelar y corregir los abusos. Sumado a esto, en lo que va de la pandemia, los estándares de seguridad se han debilitado para facilitar la recopilación de datos por parte de autoridades estatales. Por ejemplo, en India, la aplicación pandémica Aarogya Setu, ha sido descargada por al menos 50 millones de personas y la información de sus usuarios se recopila en bases de datos centralizadas que comparten la información de las y los usuarios con instituciones de gobierno y empresas privadas. Este tipo de situaciones se presenta en al menos 54 de los 65 países cubiertos en el informe de Freedom House (2020) [14].

La justicia socio-digital no es neutra y ni es apolítica

No perdamos de vista que las implicaciones que traen las aplicaciones sanitarias no son simples errores de ingeniería. Pensar que son errores técnicos normaliza la opresión y transfiere la responsabilidad a un algoritmo no humano, neutral y apolítico. Amoore (2020) señala que asignar responsabilidades en este campo es una tarea compleja, ya que existen miles de interacciones entre humanos y algoritmos. Amoore explica el lío al comparar la codificación de algoritmos con la escritura literaria. Así como la publicación de un texto se reinterpreta y adquiere significado cultural, los algoritmos descifran continuamente su código para seguir evolucionando al adquirir nuevos datos y nuevos resultados [15].

No obstante, pese a la complejidad, existen propuestas que analizan las capas que intervienen en el entramado para exponer las dinámicas que dan forma al mundo de los datos.  Ricaurte (2019) examina estas enredadas conexiones y proporciona un marco con un enfoque multidimensional el cual facilita la comprensión de las dinámicas geopolíticas, los flujos de datos, los medios de producción de conocimiento, las infraestructuras tecnológicas, el desarrollo de hardware y software, los actores e industrias involucradas y los mercados presentes a lo largo de estas relaciones globales. Por su parte, Internet Ciudadana aporta con propuestas reguladoras, las cuales incluyen el acceso a la red desde medios colaborativos y comunitarios con estructuras descentralizadas, el cuidado de la privacidad a través de leyes, políticas públicas y tratados internacionales, el reconocimiento de los datos como bienes comunes, el desarrollo de la soberanía digital mediante regulaciones en la selección de algoritmos, la elaboración de leyes que limiten el uso de tecnologías de reconocimiento facial y biometría, entre otras propuestas  [16].

La justicia socio-digital debe incluir la reivindicación histórico-cultural que merecen las minorías

En todo caso, el actual contexto reclama reflexiones que involucren la reivindicación histórica y cultural para lograr transformaciones sociodigitales decoloniales. La incorporación de saberes diversos podría corregir los errores históricos que hoy se reproducen en los actuales modelos algorítmicos. A través de la articulación de modelos teóricos como los de Ricaurte y propuestas como las de Internet Ciudadana, la justicia socio-digital puede surgir y fortalecerse.

La justicia socio-digital debe suscribir saberes diversos

La sabiduría de mujeres como Lorena Cabnal, feminista comunitaria, deben formar parte de la justicia socio-digital. El feminismo comunitario podría ser un medio que de forma a propuestas inclusivas y decoloniales, Lorena lo explica como “una recreación y creación de pensamiento político ideológico feminista y cosmogónico, que surge para re-interpretar las realidades de la vida histórica y cotidiana  dentro del mundo indígena, para establecer nuevas relaciones de equilibrio en el seno de las comunidades, que permitan un fortalecimiento y cambio…”


Natalia Rios Rivera

Mi nombre es Carmen Natalia Ríos Rivera, estoy interesada en investigar temas en torno a la seguridad cibernética, protección de datos personales, libertad de expresión y privacidad online. También leo y escribo sobre feminismo, medios digitales, racialización, colonialismo y estudios de discriminación. Actualmente participo en el proyecto de <A+> Alliance, Incubando Inteligencia Artificial Feminista.

Soy egresada de la Licenciatura en Diseño por la Universidad Autónoma Metropolitana Campus Azcapotzalco, Ciudad de México y soy Maestra en Tecnología de Medios por Universiteit Leiden, Países Bajos.

Tengo un Blog: https://riovmedia.com/


[1]Ricaurte, P. (2019). Data epistemologies, the coloniality of power, and resistance. Television & New Media, 20 (4), 350-365. https://doi.org/10.1177/1527476419831640

[2]Winner, L. (1980). Do artifacts have politics?. Daedalus, 121-136.

[3]La dataficación se ha asociado con el análisis de las representaciones de nuestras vidas capturadas a través de datos.

[4]Carroll, S. R., Rodriguez-Lonebear, D., & Martinez, A. (2019). Indigenous Data Governance: Strategies from United States Native Nations. https://datascience.codata.org/article/10.5334/dsj-2019-031/

[5]Najibi A. (2020, October 24) Racial Discrimination in Face Recognition Technology Blog, Science Policy, Special Edition: Science Policy and Science Justice https://sitn.hms.harvard.edu/flash/2020/racial-discrimination-in-face-recognition-technology/  

[6] Human Rights Watch (May 5, 2020) China: COVID-19 Discrimination Against Africans https://www.hrw.org/news/2020/05/05/china-covid-19-discrimination-against-africans

[7]Vega Macías, D. (2021) The COVID-19 pandemic on anti-immigration and xenophobic discourse in Europe and the United States. Estudios fronterizos, 22.

[8]Perolini M. (September 28, 2020 )France: Thousands of protesters wrongly punished under draconian laws in pre and post COVID-19 crackdown. Amnesty International https://www.amnesty.org/en/latest/press-release/2020/09/france-thousands-of-protesters-wrongly-punished-under-draconian-laws-in-pre-and-post-covid19-crackdown/

[9]Calvo, R. A., Deterding, S., & Ryan, R. M. (2020). Health surveillance during covid-19 pandemic. Thebmj. doi: https://doi.org/10.1136/bmj.m1373   

[10]Beth M. (November 11, 2019,) Google Reveals ‘Project Nightingale’ After Being Accused of Secretly Gathering Personal Health Records. The Verge. https://www.theverge.com/2019/11/11/20959771/google-health-records-projectnightingale-privacy-ascension

[11]Perry J. & McAfee M. (April 24, 2020) To Protect Black Americans from the Worst Impacts of COVID-19, Release Comprehensive Racial Data, SCI. AM. https://blogs.scientificamerican.com/voices/to-protect-black-americans-from-the-worst-impacts-of-covid-19-release-comprehensive-racial-data/

[12]Gasser, U., Ienca, M., Scheibner, J., Sleigh, J., & Vayena, E. (2020). Digital tools against COVID-19: taxonomy, ethical challenges, and navigation aid. The Lancet Digital Health. DOI:https://doi.org/10.1016/S2589-7500(20)30137-0

[13]French, M., & Monahan, T. (2020). Dis-ease surveillance: How might surveillance studies address COVID-19?. Surveillance & Society, 18(1), 1-11. DOI: https://doi.org/10.24908/ss.v18i1.13985

[14] Shahbaz A. Funk A.  False Panacea: Abusive Surveillance in the Name of Public Health. Freedom House  https://freedomhouse.org/report/report-sub-page/2020/false-panacea-abusive-surveillance-name-public-health  

[15]Amoore, L. (2020). Cloud ethics. Duke University Press.

[16]Internet Ciudadana (3 septiembre, 2021) (Infografía) 6 Claves sobre Derechos Digitales Colectivos   https://al.internetsocialforum.net/2021/09/03/infografia-6-claves-sobre-derechos-digitales-colectivos/ 


Descubre más desde Afroféminas

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Descubre más desde Afroféminas

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo

Verificado por MonsterInsights