La inteligencia artificial está produciendo avances enormes en muchas ramas a un ritmo hasta ahora desconocido. Sin embargo, no se debe olvidar que bajo determinadas circunstancias y casos, debido a problemas generalmente relacionados con los datos usados en la base de datos de entrenamiento del software, su uso puede llegar a jugar malas pasadas. Amazon lo ha sufrido con una herramienta que emplea inteligencia artificial para reclutamiento laboral, según informa Reuters.
Estos sistemas ofrecen grandes ventajas para seleccionar a candidatos con mayor eficiencia, pero en el caso de la inteligencia artificial de Amazon, los resultados que ofrecía presentaban sesgos contra las mujeres, es decir, que por ejemplo, en reclutamiento de candidatos para trabajos de desarrollo de software y en otras áreas técnicas, el sistema no estaba aplicando principios de igualdad y meritocracia, sino que producía una importante discriminación contra las mujeres.
La inteligencia artificial presenta retos enormes incluso para gigantes como Amazon
El hecho de que una situación así se dé dentro de una empresa como Amazon, referente en el campo de la automatización y el uso de herramientas de aprendizaje automático, puede parecer inexplicable, pero no lo es. La razón detrás del sesgo contra el sexo femenino está en cómo ha funcionado el reclutamiento en Amazon en los últimos 10 años.
La inteligencia artificial debe ser alimentada de datos para generar modelos y encontrar similitudes positivas. Si el sistema de captación de empleados de la compañía en los últimos años generaba mayoritariamente contrataciones masculinas, y esos datos se le ofrecen a la herramienta sin indicaciones de lo que está bien o mal, o de la igualdad de oportunidades que se busca, el software interpreta que lo corriente es lo positivo. Acto seguido, actuará en base a ello.
En este caso, se crearon 500 modelos informáticos con atención a funciones específicas del empleo y localizaciones. Cada uno de esos 500 aprendió a reconocer 50.000 palabras que aparecían en el currículum de los candidatos. El problema es que los hombres, según la fuente de Reuters, tienden a usar términos como realización o conquista más que las mujeres, y el sistema los primó.
La simple introducción del término "women’s" en el currículum generaba un agravio contra las mujeres. Las mujeres tituladas en dos universidades femeninas no mixtas también sufrían efectos de degradación para el sistema. Aunque dentro de la empresa esto se vio como algo negativo y se quiso modificar ese comportamiento de la inteligencia artificial para hacerla más neutra, el proyecto se desechó cuando se percibió que no había certeza de que el sesgo no se pudiera reproducir en otro sentido.
El equipo de desarrolladores a cargo fue disuelto a causa de una pérdida de esperanza en el proyecto. La herramienta se llegó a usar, pero no para basarse únicamente en sus recomendaciones.
Un problema con difícil solución
Entrenar a un software de inteligencia artificial para obtener resultados óptimos no es algo banal. Como se ha mencionado, no es lo mismo alimentar a una máquina con datos a discreción, sin aportar más profundidad al análisis de datos, que hacerlo. Lo segundo es mucho más complicado, porque en este caso en Amazon se ha visto mal el sesgo, pero en otros muchos puede no ser así y que la desigualdad se perpetúe e incluso crezca a largo plazo.
Al diseñar estas herramientas las empresas no sólo deben buscar la productividad, sino de alguna forma reconocer qué patrones repetitivos y del todo positivos se pueden estar dando con decisiones por personas, para así generar modelos que tiendan más a la centralidad.
Puedes aprender más sobre inteligencia artificial escuchando nuestro podcast ‘Captcha’, donde debatimos en profundidad sobre todo lo que le rodea.
Ver 13 comentarios