Siempre se habla de la brecha salarial en el mundo laboral entre las mujeres y los hombres. Las mujeres ocupan menos puestos de alto nivel y, por lo tanto, participan menos en las tomas de decisiones. Pero cuando se trata de cuestiones que tienen que ver con la Inteligencia Artificial y su desarrollo, esta brecha es aún mayor. Si hablamos de mujeres negras y racializadas la situación es dramática, y esto influye en que su desarrollo sea deficiente.
Con el auge de la tecnología de Inteligencia Artificial (IA), tenemos que preguntarnos cómo será el mercado laboral del mañana para las mujeres negras y racializadas y si estamos aprovechando efectivamente el poder de la tecnología de IA para reducir las brechas de igualdad de género y racial, o estamos permitiendo que estas brechas se amplíen.
Podemos ver el ejemplo de como se hizo el diseño de cinturones de seguridad, reposacabezas y airbags de los vehículos automóviles. En los años 50 las especificaciones de diseño se hicieron solo para los cuerpos de los hombres. En ese momento, los hombres eran los principales conductores. Como resultado, las mujeres sufrieron lesiones corporales graves e incluso murieron a una tasa más alta en accidentes automovilísticos. No fue hasta 2022 que los fabricantes de automóviles finalmente recibieron el memorándum de que deberían realizar pruebas con proporciones de mujeres para que la conducción sea más segura para todos. Cuando hablamos del poder de la inclusión, este es un ejemplo que puede que ni siquiera se nos pase por la cabeza. Sin embargo, es por eso que todas las industrias deben priorizarlo, especialmente en la tecnología.
Hay una tremenda oportunidad con la IA para centrar la diversidad y la equidad. Por ejemplo, todo, desde garantizar que el reconocimiento facial detecte tonos de piel más oscuros, hasta crear funciones de autocorrección en nuestros teléfonos que incluyan términos de género más amplios. En el mercado inmobiliario, las capacidades de IA pueden ayudar a construir una sociedad más inclusiva al eliminar el lenguaje racialmente restrictivo de los títulos de propiedad.
Aprendimos hace mucho tiempo que las máquinas no son perfectas. Cometen errores, al igual que la gente. Estos errores pueden poner en riesgo la salud y la seguridad de las mujeres negras y racializadas. Seamos realistas: a la tecnología se le da la tarea de adivinar el género de una cara. Sin embargo, para las mujeres de piel más oscura, las tasas de error han sido superiores al 30 por ciento. Los sistemas de IA de las principales empresas no han logrado clasificar correctamente los rostros de algunas mujeres negras muy conocidas. Cuando la tecnología nos ignora, es hora de reevaluar cómo se construyen estos sistemas y a quién sirven.
Sabemos que el prejuicio es una verdad inevitable en la vida. El resultado nos da una visión limitada del mundo. Pero el sesgo social puede ser reflejado por la IA de maneras peligrosas, ya sea al decidir quién obtiene un préstamo bancario o quién debe ser vigilado. Los programas informáticos «aprenden» de la información previa que se les da y se basan también en la consistencia y repetición. Parece que si no tenemos cuidado, podríamos automatizar los mismos sesgos que se supone que estos programas deben eliminar.
En realidad, ya ha estado sucediendo. Hace unos años, un programa de reconocimiento de imágenes de Google etiquetó los rostros de varias personas negras como gorilas; un programa de publicidad de LinkedIn mostró una preferencia por los nombres masculinos en las búsquedas, y un chatbot de Microsoft llamado Tay pasó un día aprendiendo de Twitter y luego comenzó a enviar mensajes antisemitas.
Los que manejan la IA deben invertir y priorizar el trabajo y las ideas de las personas racializadas para desarrollar una equidad total. Esto incluye a las mujeres negras y racializadas en puestos técnicos, y en los políticos a las activistas y los líderes comunitarios, ya que los problemas de la IA son mucho más que consideraciones técnicas. Sin invertir en diversidad, los resultados seguirán siendo deficientes.
Los sistemas de IA pueden estar sesgados en función de quién los construye, cómo se desarrollan y cómo se utilizan. Con la IA convirtiéndose cada vez más en parte de nuestra vida cotidiana, esta claro que la diversidad deba comenzar con los ingenieros informáticos que desarrollan y monitorean los sistemas de IA .
La tecnología debe ser mejorar nuestras vidas, y no amedrentarnos o discriminarnos. Tenemos que asegurarnos de que no estamos permitiendo que el racismo o cualquier otro tipo de discriminación esté en la raíz de los sistemas de IA.
Afroféminas
Descubre más desde Afroféminas
Suscríbete y recibe las últimas entradas en tu correo electrónico.