La crisis sanitaria provocada por el avance del coronavirus a lo largo y ancho del planeta continúa agravándose y en cada vez más países obliga al confinamiento.
Ante esta situación, aquellas personas que desempeñan trabajos no esenciales están siendo enviadas a sus casas. Entre ellas, las que se encargan de moderar los contenidos en plataformas y redes sociales como Facebook o YouTube.
Que estas personas hayan dejado de trabajar, dado que por el tipo de información que maneja desarrollar sus funciones a distancia no es posible, ha provocado una elevada dependencia de sistemas automáticos de moderación que dependen del machine learning. Y estos sistemas están "volviéndose locos".
Humanos vs. machine learning
En los últimos días, pero especialmente en las últimas 24 horas, usuarios de Facebook informaban en la propia red social y en otras plataformas digitales de que sus publicaciones estaban desapareciendo. Contenidos que, no era ninguna casualidad, estaban relacionados de una u otra manera con el coronavirus.
Mediante una notificación, eran informados de que las publicaciones eliminadas incumplían con las normas de la comunidad. Algo que sucede cuando un contenido resulta ser fraudulento, contiene violencia o es extremista. Y nada más lejos de la realidad en estos casos. El problema era otro.
"Parece que una regla antispam de Facebook se está volviendo loca. [...] Podríamos estar viendo el comienzo del machine learning volviéndose loco con menos supervisión humana", aseguraba en Twitter el antiguo director de Seguridad de Facebook, Alex Stamos, comentando que pocas horas antes la compañía había enviado a los moderadores de contenido a casa. "Generalmente no pueden teletrabajar debido a los compromisos de privacidad", aclaraba.
Guy Rosen, vicepresidente de Facebook, no tardó en confirmar los errores también a través de Twitter. "Ha sido un problema con un sistema automatizado que elimina los enlaces a sitios web abusivos, pero que también eliminado incorrectamente muchos otros mensajes", escribía después de asegurar que estaban restaurando todas las publicaciones eliminadas incorrectamente. También algunas no relacionadas con el COVID-19 que también habían sido borradas.
No obstante, en una respuesta a Stamos, añadía que el error "no guarda relación con ningún cambio en nuestra fuerza de trabajo de moderadores de contenido".
YouTube, este pasado lunes, informó a sus usuarios de que los sistemas automatizados iban a tomar el relevo de los moderadores humanos que no pudiesen trabajar debido al distanciamiento social que impera a causa de la crisis sanita. En consecuencia, advirtieron, "se eliminarán más videos de lo normal durante este tiempo, incluyendo el contenido que no viola nuestras directrices de la comunidad". Y añadió una disculpa.
Ambas situaciones ponen de manifiesto los desastres que pueden causar los sistemas automáticos e inteligentes en un ámbito tan crítico para redes sociales y plataformas como es el de la moderación. Lo sucedido, además, llama poderosamente la atención en el caso de YouTube, una compañía que presume habitualmente de los millones de vídeos que ha eliminado mediante la detección automática. De octubre a diciembre de 2019, según los últimos datos hechos públicos, la detección automática se encargó de retirar más de 5.300.000 vídeos.
Ver 1 comentarios