Quizás algunos no lo recuerden, pero cuando Google Fotos estaba recién lanzada y recibiendo halagos y flores por todas sus bondades, también desató una gran polémica porque el algoritmo que usa para etiquetar las fotos confundió a una pareja de personas negras con gorilas.
El sistema de reconocimiento facial de Google Fotos fue entonces calificado de racista y se desató un gran debate. La empresa se disculpó profusamente, dijo que trabajaban en solucionarlo y mientras tanto eliminarían la etiqueta "gorila" de la aplicación. Eso fue en 2015, ya estamos en 2018 y la "solución" por parte de Google ha sido impedir que su app identifique gorilas bajo cualquier escenario.
Google Photos, y'all fucked up. My friend's not a gorilla. pic.twitter.com/SMkMCsNVX4
— Jacky Alciné (@jackyalcine) 29 de junio de 2015
Según una historia publicada por Wired, Google Fotos simplemente no muestra resultados cuando se hacen búsquedas para los términos "gorila", "chimpancé", y "mono". Incluso probaron subiendo fotos de los animales de varias organizaciones sin fines de lucro, pero Google Fotos simplemente es incapaz de encontrarlas.
No solo eso, sino que también encontraron que Google ha restringido también las funciones de reconocimiento de su inteligencia artificial en algunas categorías sobre raza.
En Wired subieron más de 10.000 fotos usadas para investigación de reconocimiento facial, y al buscar "hombre negro" o "mujer negra", los resultados solo mostraron fotos en blanco y negro de personas, pero no las organiza por raza, solo por género.
Google no lo niega

Un representante de Google confirmó a Wired que las categorías "gorilla", "chimp", "chimpanzee" y "monkey" continuan bloqueadas en Google Fotos desde 2015 cuando se reportó el problema inicialmente. "La tecnología de identificación de imágenes aún es nueva y desafortunadamente no está ni cerca de ser perfecta", dijo la empresa.
Si bien es cierto que se trata de una tecnología nueva que sigue representando retos, sigue sin quedar claro si problemas como estos permanecen presentes porque Google no sabe cómo solucionarlos o no le interesa.
También es un recordatorio, como mencionan en The Verge, de que otra de las dificultades que enfrentan las inteligencias artificiales a la hora de ser entrenadas, probablemente tengan también que ver con la diversidad del grupo de personas que las programa, y luego las prueba.
En Magnet | Por qué al algoritmo de Google es racista (pista: porque nosotros lo hemos querido)
En Xataka | ¿Pueden ser racistas los algoritmos?
Ver 10 comentarios
10 comentarios
airiartev
La izquierda facha
marcorv99
Creo que el caso que se dio de las personas afroamericanas "confundidas" con gorilas es parte de lo que seguimos viendo en las redes: gente queriendole buscar chichis a los gatos (o buscarle tres pies al gato, como ustedes conozcan el dicho). Es decir, es seguro que no era una ofensa, solo fue un algoritmo inicial que se equivocó, como seguramente se equivocó en otros matches más, por ejemplo, el de que confundió a personas blancas con focas o perros, pero que es lo que probablemente pasó, a un blanco lo confunde con lo que sea y simplemente la persona dirá: "la detección no sirve" y en el caso de los afroamericanos, pues al ser algo "más delicado" por el encono en el que se encuentra la raza, pues luego luego le tiran a "racismo" y no a una falla, por Dios!!! fue un algoritmo y este no piensa en racismo, este simplemente falla y ya.
kalipo
En el titular parece que se ha puesto "pretende" por el inglés "to pretend", que en español significa "fingir". Es uno de esos famosos falsos amigos solo que en este caso, extrañamente, se ha caído en sentido inverso.
Gracias. Un saludo.
marcelopapu
Pobre Darwin, ya nadie cree en el.
carlos-cr2008
Que extraño, a mi si me salen tanto en inglés (gorilla) como en español. Y sin confusiones.