La última polémica relacionada con Twitter tiene como protagonista a un algoritmo que la red social utiliza para decidir cómo se recortan las fotos en nuestro timeline. Acusan a dicho algoritmo de elegir mostrar los rostros de personas con la piel blanca sobre aquellas que tienen la pigmentación más oscura.
Durante el pasado fin de semana, muchos usuarios han compartido capturas en las que muestran y denuncian este aparente sesgo. Liz Kelley ha hablado en nombre de la plataforma, y ha dado las gracias a todos los usuarios que han alertado sobre este incidente.
thanks to everyone who raised this. we tested for bias before shipping the model and didn't find evidence of racial or gender bias in our testing, but it’s clear that we’ve got more analysis to do. we'll open source our work so others can review and replicate. https://t.co/E6sZV3xboH
"Tenemos que realizar más análisis"
Como vemos, desde Twitter reconocen que existe un problema y afirman que "está claro que tienen que realizar más análisis". Declaran que hicieron pruebas antes de lanzar oficialmente este algoritmo y que no encontraron "ninguna evidencia de prejuicios raciales o de género".
Han sido muchos los usuarios que han criticado a la red social en los últimos días, publicando imágenes que demuestran este sesgo. Uno de los tweets más compartidos utiliza a Mitch McConnell y a Barack Obama como ejemplo:
Trying a horrible experiment...
Which will the Twitter algorithm pick: Mitch McConnell or Barack Obama? pic.twitter.com/bR1GRyCkia
Otros usuarios han probado con personajes de animación, como es el caso de una mítica pareja de 'Los Simpson': Lenny y Carl.
ffs.
Otro usuario lo ha intentado con animales, con fotografías de dos perros (uno de pelo blanco y otro de pelo negro). Al parecer, mismo resultado:
I tried it with dogs. Let's see. pic.twitter.com/xktmrNPtid
— - M A R K - (@MarkEMarkAU) September 20, 2020
Desde ese momento, algunos usuarios se dedicaron a experimentar con las fotos de McConnell y Obama para determinar si se trataba de un sesgo realmente racial o el algoritmo está analizando otros aspectos de la imagen.
¿Tendrá el algoritmo preferencia por la corbata de color rojo?
"It's the red tie! Clearly the algorithm has a preference for red ties!"
— Tony “Abolish (Pol)ICE” Arcieri 🦀 (@bascule) September 19, 2020
Well let's see... pic.twitter.com/l7qySd5sRW
¿Tendrá algo que ver con la sonrisa?
perhaps the smile too? pic.twitter.com/8rO1NEEnGb
— سعد (@BySaadGhamdi) September 20, 2020
Vinay Prabhu, científico en la Universidad Carnegie Mellon, realizó un análisis independiente y publicó sus resultados hace unas horas en un hilo de Twitter. Para ello, Prabhu utilizó una serie de fotos de rostros masculinos y femeninos tomados de la 'Chicago Faces Database' (un repositorio público).
(Results update)
— Vinay Prabhu (@vinayprabhu) September 20, 2020
White-to-Black ratio: 40:52 (92 images)
Code used: https://t.co/qkd9WpTxbK
Final annotation: https://t.co/OviLl80Eye
(I've created @cropping_bias to run the complete the experiment. Waiting for @Twitter to approve Dev credentials) pic.twitter.com/qN0APvUY5f
Sorprendentemente, su experimento dio como resultado que el algoritmo de Twitter favorecía ligeramente a las fotos en las que aparecen personas de piel oscura, dándoles protagonismo en 52 de las 92 imágenes que publicó.
Pese a las pruebas de Prabhu, en los últimos días se han publicado muchos otros ejemplos en los que ocurre lo contrario. Es por eso que Twitter ya ha anunciado que van a investigar lo ocurrido y que liberarán el código de este proyecto para que otras personas puedan revisarlo o replicarlo.
Ver 7 comentarios