En 2016 fue el año en que las noticias falsas pusieron en jaque la credibilidad de Facebook, pero este fenómeno de esparcimiento de información falsa no se limita solo a la red social de Mark Zuckerberg, en el último par de años hemos visto como el contenido incendiario, extremista y que busca parcializar a las personas aunque no tenga nada de veraz, termina haciéndose más viral que cualquier hecho real.
Gran parte del problema es lo mismo que advierte Tim Berners-Lee, el padre de la web, solo un puñado de empresas controlan lo que se ve y se comparte en la web, son ellos quienes mayoritariamente tienen el control sobre las ideas que se esparcen en Internet, y si bien no son quienes crean las noticias falsas, es en sus plataformas donde se originan y donde necesita ejercerse mejor control para detectar y eliminar este tipo de contenido, en lugar de que termine siendo promovido por algoritmos defectuosos.
Si bien ya hay estudios que apuntan a que las 'fake news' tienen más probabilidades de ser replicadas que las noticias verdaderas, y que parte de la razón es que provocan reacciones emocionales en la gente, como disgusto o sorpresa, y esto hace que seamos los mismos usuarios quienes diseminemos la información; también está el asunto de que estas plataformas están diseñadas para mantener al usuario dentro la mayor cantidad de tiempo posible, los algoritmos tienen sesgos perturbadores que promueven contenido incendiario y falso porque genera más interacción.
Como respuesta a todo esto se han tomado diferentes medidas por partes de los responsables de las principales plataformas donde se han esparcido y se siguen esparciendo noticias falsas: Facebook, Google, YouTube y Twitter. Este es un resumen de todo lo que han hecho hasta ahora estos gigantes para detectar 'fake news'.
El largo camino que ha recorrido Facebook y todo lo que le falta por recorrer
Una de las primeras medidas que tomaron en Facebook para intentar volver a ser una fuente de información creíble, fue modificar los trending topics sacrificando los intereses personales de los usuarios para combatir las noticias falsas, dando prioridad a temas que supuestamente reflejarían "los eventos del mundo real".
Ese no fue el único cambio que sufrió el algoritmo, en febrero de 2017 volvieron a hacerlo, esa vez con pequeños cambios que penalizarían las noticias falsas y sensacionalistas. En abril empezaron a probar una herramienta para que los mismos usuarios aprendieran a identificar noticias falsas, y también empezaron a mostrar mensajes de advertencia a aquellos que intentaran publicar noticias falsas para disuadir a la gente de esparcir mentiras.
Facebook y otras 20 tecnológicas también se unieron invirtiendo 14 millones de dólares para financiar la "News Integrity Initiative", una iniciativa para la investigación y financiación de expertos de la industria de la comunicación que buscaría combatir las noticias falsas.
También crearon el Facebook Journalism Project para trabajar con los periodistas e intentar "promover un ecosistema de noticias sano donde el periodismo pueda prevalecer y prosperar". Y, decidieron empezar a mostrar artículos relacionados y pruebas de verificación de hechos antes de que los usuarios abrieran enlaces.
Incluso llegaron a publicar una lista de 10 consejos para detectar noticias falsas. Y este año decidieron tomar una medida polémica: una encuesta de dos preguntas a los usuarios que determinaría la confiabilidad de un medio para la red social.
Facebook hasta hoy sigue insistiendo en que priorizará las noticias que provengan de fuentes "confiables, informativas y locales", pero sigue sin saber cómo determinar que medios reúnen esas condiciones, que los usuarios sean los que deciden es más que cuestionable, porque muy bien lo pueden hacer por la afinidad que tengan con un medio y no con la objetividad y credibilidad del mismo.
Google y YouTube
Google puso en marcha la First Draft Coalition en junio de 2015 con el apoyo de Google News Lab, una iniciativa a la que Facebook y Twitter se unieron en septiembre de 2016. El objetivo de esta es el de mantener una plataforma para que se puedan verificar las noticias cuestionables y para ello cuenta con la participación de 30 medios internacionales y organizaciones.
Google también modificó su algoritmo para que el autocompletado dejara de sugerir términos de búsqueda que podrían conducir a los usuarios a artículos falsos. En 2016 mostraron como habían detectado más de 1.300 anunciantes que se han pasar por medios de comunicación. Son los llamados "tabloid cloakers", anuncios que parecen noticias y buscan llamar la atención de los usuarios y que resultan falsas.
En abril de 2017 estrenaron una etiqueta de verificación en los resultados de búsqueda de Google, algo que solo está disponible en Google News (por lo tanto no en España) y que indica que la información ha sido verificada por organizaciones de comprobación de hechos y editores de noticias.
Así como el algoritmo de Google ha sufrido cambios por promover noticias falsas, el de YouTube también lo ha hecho. En octubre de 2017 tuvieron que cambiar el algoritmo de la plataforma de vídeo luego de que fuentes como 4chan aparecieran como medios fiables cuando se buscaba información sobre el trágico tiroteo de Las Vegas.
Google también ha eliminado la monetización de contenido "inapropiado e incendiario", buscando desalentar a quienes suben este tipo de vídeos, pero los vídeos permanecen en la plataforma, solo que menos gente hace dinero con ellos.
El algoritmo de YouTube ha sido ampliamente criticado por tener sesgos pertubadores y peligrosos y promover el contenido incendiario para que el usuario pase más tiempo en el sitio, especialmente contenido sobre teorías de conspiración e información falsa. Un problema que sigue presente, en YouTube existen vídeos sobre antivacunas y cáncer que pueden hacer que gente muera, pero Google sigue sin eliminarlos.
En su lugar han tomado medidas más tibias, como ofrecer talleres a los adolescentes para enseñarles a identificar noticias falsas.
Contenido perturbador como el de YouTube Kids hizo que Google decidiera poner a más de 10.000 personas a revisar la plataforma, y además dicen que los algoritmos han hecho el trabajo de 180.000 personas trabajando 40 horas a la semana para eliminar vídeos extremistas, pero la realidad es que tienen un problema más grave del que creen estar solucionando.
En Twitter parte del problema son las cuentas falsas, los bots, y los trolls. Entre 2016 y 2017 expulsaron 632.248 cuentas gracias a mayormente al equipo interno de la empresa, y en muy poca cantidad a reportes de usuarios. Pero esto sigue sin ser suficiente.
Apenas han empezado a tomar medidas contra el acoso y la violencia en la plataforma, les tomó demasiado hacer algo contra las cuentas de neonazis que hasta estaban verificadas, y apenas en febrero de 2018 es que anunciaron medidas contra el uso de múltiples perfiles y otro tipo de manipulaciones como el _tweetdecking_.
Aunque Twitter sigue intentando lidiar con los bots, el spam, la falsa visualización de tuits, enlaces y hashtags, la plataforma no ha tomado ninguna medida específica para prevenir el esparcimiento de noticias falsas en la plataforma más allá de su colaboración con la First Draft Coalition iniciada por Google.
A estas plataformas les queda mucho camino por recorrer y el problema de las noticias falsas es uno que ha sido lamentablemente generado por las personas y que es potenciado por la forma en la que funcionan buscadores y redes sociales. Las 'fake news' continúan avivando tensiones sociales, estamos en un debate constante sobre la intervención de agentes externos en varios procesos democráticos además de las elecciones presidenciales de USA, y a muchos les parece que ya no es suficiente con que estas empresas se autoregulen.
También hay que recordar que ninguna empresa está tomando medidas solo por la buena voluntad de sus corazones. Los gobiernos del mundo les han venido dando ultimátums, y luego de que se comprobara la interferencia rusa en las elecciones de Estados Unidos donde ganó Donald Trump, el gobierno de ese país continúa en una larga investigación para determinar el impacto de que miles de cuentas falsas rusas gastaran miles de dólares para influenciar a los electores en las redes sociales.
Ver 4 comentarios