Brecha de género en el mundo laboral: ¿Son sexistas los algoritmos?
- Las decisiones de la Inteligencia Artificial discriminan entre hombres y mujeres a la hora de elegir candidatos
- Los luditas fueron los primeros en preocuparse por su futuro laboral con la llegada de las máquinas
- El documental Algoritmia se puede visualizar -gratis y online- en RTVE Play
En pleno siglo XXI, la idea de discriminar profesiones para hombres y para mujeres se ha demostrado obsoleta. Sin embargo, herramientas supuestamente avanzadas como los algoritmos pueden producir una visión distorsionada de la realidad. Sucede, por ejemplo, con la palabra nurse, un término que según un estudio suele traducirse como enfermera, en femenino, vinculando este trabajo a mujeres. Todo lo contrario a lo que ocurre con lawyer, que habitualmente suele asociarse a abogado -hombre- en lugar de abogada.
Ahora bien, el problema no reside únicamente en lo lingüístico, sino que se extrapola al mundo laboral, donde los algoritmos tienden a recomendar a hombres para puestos directivos porque, hasta ahora, siempre han sido ellos quienes han ocupado esos cargos y este dato estadístico orienta la conclusión sin tener en cuenta otros factores de valor actualizados. Se refuerza así la desigualdad en el ámbito profesional entre ambos géneros.
¿Cómo discriminan las máquinas?
Principalmente se debe a que las máquinas aprenden a partir de patrones de repetición extraídos de la suma de experiencias anteriores y sacan sus propias conclusiones. Esto es lo que se conoce como Deep Learning, es decir, un sistema que analiza una gran cantidad de datos y que, a partir de ahí, logra que una máquina termine aprendiendo por cuenta propia. Por tanto, si ciertas profesiones, como por ejemplo Ingeniería Informática, tienen una mayor presencia de perfiles masculinos, el algoritmo entenderá que los hombres son más aptos para desempeñar ese cargo. Una idea que condiciona e invisibiliza otros perfiles según el sexo, la raza o la edad; entre otros factores.
La segregación de los algoritmos
De manera que, aunque estos cálculos matemáticos ayudan a agilizar tediosos procesos, en ocasiones pueden acabar excluyendo y reproduciendo estereotipos del pasado. Esto ocurre cuando ignoran actualizaciones o elementos imponderables, muchos relacionados con el factor humano. Un ejemplo de ello es lo que le sucedió en 2019 a David Heinemeier Hansson, programador y creador de la plataforma Ruby on Rails. Este denunció públicamente a la compañía de Steve Jobs por concederle a él 20 veces más límite de crédito que a su esposa, cuando ambos cumplen las mismas condiciones. “La Apple Card es jodidamente sexista”, publicó en sus redes sociales.
Sin embargo, cuando el servicio técnico de Apple se hizo eco de las críticas, culparon al algoritmo. Una respuesta que molestó aún más a Heinemeier Hansson, que no entendía por qué nadie había revisado el funcionamiento del sistema.
Un caso muy similar le ocurrió al cofundador de Apple, Steve Wozniak, quien también denunció públicamente que le habían concedido 10 veces más crédito que a su mujer.
Pero ¿la culpa es del robot o del programador? Los algoritmos reproducen lo que ven, representan el “reflejo de la realidad”. O al menos, de esa realidad que aprenden. Luego, si esta discriminación existe en la Inteligencia Artificial es porque aún perdura en la sociedad. Algunos algoritmos se educan a través de información publicada en la red, y eso provoca que en ocasiones adquieran conductas machistas que han aprendido en Internet. Si aún no vivimos en una sociedad igualitaria los algoritmos son los primeros en darse cuenta.
Algoritmia: ¿El fin del trabajo como lo conocemos?
El último estreno del Laboratorio de Innovación Audiovisual de RTVE, Algoritmia: ¿El fin del trabajo como lo conocemos? habla sobre el uso de algoritmos en el mercado laboral y los efectos que estos tienen. El proyecto ya está disponible -gratis y online- en la plataforma de RTVE Play.