Timnit Gebru era una de las principales investigadoras en ética de la inteligencia artificial con las que contaba Google y ha sido despedida. Ha sido ella misma la que lo ha comunicado a través de su cuenta de Twitter achacando la decisión a una represalia por un correo electrónico que envío a otros compañeros.
El mensaje en cuestión, que ha sido visto por The New York Times, Gebru había expresado su frustración con la respuesta de la compañía ante sus esfuerzos y los de otros compañeros en pro de aumentar la contratación de minorías y en llamar la atención sobre los sesgos en la inteligencia artificial. "No hay manera de que más documentos o más conversaciones logren algo", afirmó.
Acusaba a Google de no escuchar
La investigadora, una de las pocas mujeres negras en su campo de trabajo, se quejaba de no ser escuchada y sugería a los grupos de compañeros a los que envío el correo electrónico que dejasen de escribir documentos porque no se conseguía nada con ellos.
"Tu vida comienza a empeorar cuando empiezas a abogar por las personas subrepresentadas. Empiezas a hacer que los otros líderes se molesten", decía en el correo electrónico.
Tras ello, solicitó a sus superiores cambios en las condiciones de trabajo con la amenaza de dejar la empresa si estas peticiones no eran atendidas. Los responsables de Google a los que se dirigió le contestaron que no podían atenderlas y, por tanto, aceptaban de forma inmediata su renuncia al puesto.
En la respuesta que le enviaron, siempre según lo compartido por la investigadora, le dijeron que ciertos aspectos del correo que había enviado reflejaban comportamintos que no son consistentes con lo que se espera de una directiva de Google. Un portavoz de la empresa se negó a hacer comentarios a The New York Times sobre estos hechos.
Gebru es conocida por la investigación que llevó a cabo junto con Joy Buolamwini en la que descubrieron que diversos sistemas de reconocimiento facial disponibles comercialmente identificaban correctamente el género de los individuos en un 99 % de las ocasiones cuando eran varones de piel clara, pero fallaban cuando tenían que lidiar con personas de piel oscura, alcanzando la tasa de error el 35 % en el caso de las mujeres.
Imagen destacada | Ben Nuttall (CC BY-SA 2.0)
Ver 12 comentarios