Contrariado, revisa el texto por enésima vez -¿Megyn Kelly, expulsada de la Fox por apoyar a Hillary? Qué raro- se dice para sus adentros mientras sigue leyendo. –Bueno, lo enlaza Facebook en sus temas del momento, así será- concluye. Pero nada más lejos. Esta fue la situación ante la que se encontraron cientos de usuarios de la red de Zuckerberg el fin de semana pasado.
Una auténtica metedura de pata que, por desgracia, no es la única que ha puesto en evidencia las carencias del nuevo sistema automático de Trending Topics de la comunidad social, una tecnología que no obstante su reciente aterrizaje en la plataforma, ha empezado ya a hacer aguas por todas partes. Pero expliquémonos.
Efectivamente, porque si bien la inteligencia artificial y los bots constituyen una de las grandes apuestas de los gigantes tecnológicos, lo cierto es que esta clase de sistemas no siempre resultan infalibles. Una realidad que acaba de poner de relieve la citada entidad y un caso que no podemos dejar de comentar. En todo caso, para abordarlo por completo, deberemos remontarnos al principio de los tiempos.
Antecedentes y evolución del problema
Así, todo empezó cuando, a principios de mayo de este mismo año, Facebook se vio inmersa en una polémica después de que algunos ex empleados de la compañía contaran a Gizmodo que habían estado “camuflando” las noticias que enaltecían las políticas más conservadoras y que se ubicaban a la cabeza de la sección de noticias de la comunidad.
Unas afirmaciones tremendamente controvertidas que pusieron de manifiesto un (supuesto) partidismo y manipulación por parte de una entidad que, de manera paradójica y durante el último año, no ha cesado de apostar por la información. De manera más completa, estos antiguos trabajadores aseveraron que la eliminación tenía lugar automáticamente y que, incluso, llegó a impedir que algunas historias relacionadas con la CPAC (Conservative Political Action Conference), Mit Rommey y otros candidatos tuvieran la visibilidad que se merecían.
Las declaraciones, asimismo, dieron lugar a toda clase de conjeturas sobre la ideología de las personas que gestionaban esta sección, y volvieron a recordar la manifiesta aversión de Zuckerberg a políticos republicanos como Donald Trump, entre muchas otras cuestiones.
Cómo funcionaba
Para que nos entendamos, el servicio - aterrizado en 2014 y únicamente se encuentra disponible en algunos países de habla inglesa- funcionaba de la siguiente manera: un algoritmo se encargaba de detectar los temas de los que más se estaba hablando y, seguidamente estos eran supervisados por un grupo de empleados subcontratados, los que llevaban a cabo la selección final que aparecía en el espacio del usuario, y que también podían incluir otros temas que consideraban de interés.
El problema fue que, al parecer, esta sección funcionaba como una redacción tradicional, reflejando las preferencias de los empleados y la política corporativa de la red social, como apuntábamos. Y decimos “al parecer” porque, días después, otros trabajadores comentaron que si bien se añadían noticias “a mano” para mejorar las preferencias, esta no era partidista.
La respuesta inicial de Facebook
Un asunto ante el que Facebook no tardó en defenderse, asegurando que sus normas no permitían suprimir opiniones políticas ni prohibir que ninguna noticia de otro medio apareciese en los Trending Topics. Incluso llegó a proporcionar a The Guardian su lista de 1.000 medios de confianza de donde seleccionaba las noticias y con los que, supuestamente, verificaba y detectaba “los eventos mundiales y los asuntos que interesan a la gente”.
Asimismo, la red social aseguró que seguiría investigando si esta selección había sido manipulada. No obstante sus declaraciones –hasta Zuckerberg se pronunció al respecto y anunció una investigación interna-, la imagen del gigante quedó ciertamente empañada.
Un hecho que le llevó a cambiar la gestión de los trending topics con el objetivo de “mejorar sus productos y minimizar los riesgos en los que interviene el juicio humano”. Entre las novedades, actualizaron la terminología de las directrices dirigidas a sus empleadas para aclararlas, implementaron clases de repaso con todos ellos para hacer hincapié en que “las decisiones de contenido” no podían hacerse “sobre una base política o ideológica” y empezaron a llevar controles adicionales sobre todo el equipo de revisión.
Facebook también añadió entonces que dejaría de depender de listas de sitios webs externos y medios supuestamente fiables y afirmó que seguiría trabajando para asegurar que la suya siguiera siendo una “plataforma abierta y acogedora para todos los grupos e individuos y con el objetivo de restaurar cualquier pérdida de confianza respecto de los Trending Topics”. Curiosamente, sus últimas acciones resultaron tremendamente drásticas.
Cortando por lo sano
De esta manera, la red de Zuckerberg decidió cortar por lo sano hace tan solo unos días (lo hizo el viernes pasado, concretamente). ¿Cómo? Despidiendo a hasta 18 trabajadores encargados de la sección –que también se encargaban de comprobar las fuentes y escribir las descripciones- y acabando con toda acción humana en este apartado.
“Nuestro objetivo es permitir generar tendencias para tantas personas como sea posible, algo muy difícil de conseguir si nos basamos solamente en un resumen de los temas hechos a mano. El nuevo sistema permitirá cubrir más temas y ponerlos a disposición de más personas", se justificó la compañía.
A partir de entonces, las citadas descripciones de las historias han desaparecido y los usuarios han empezado a ver únicamente los enunciados de los temas. Además y para aquellos que quieran saber más acerca de un asunto que es tendencia, deben pulsar sobre “trending topic” para que se les muestre una lista personalizada en función de lo que les gusta y la manera en que suelen interactuar en la plataforma.
Una automatización que tiene como objetivo no solo cubrir más temas sino acabar con los problemas. Sin embargo, menos de una semana después del anuncio de Facebook, ya se han evidenciado algunas de sus carencias y meteduras de pata más flagrantes. Unos casos que, al mismo tiempo, han vuelto a poner de relieve la importancia de gestionar este aportado con idoneidad y los problemas que no hacerlo puede ocasionar.
La importancia del problema
Así y más allá del hecho de que Facebook podría haber estado decidiendo lo que quería que viesen sus usuarios inicialmente –y hasta llegado a influir incluso en determinados procesos electorales, el recién estrenado sistema de selección plantea ciertas cuestiones. Por ejemplo, ¿qué ocurre si el algoritmo se equivoca?
Un contexto en el que no podemos dejar de comentar que la red social de Facebook es actualmente el lugar por el que hasta el 30% de los estadounidenses se decanta a la hora de informarse. Una tendencia que se está implantando en el resto de países y que constituye una de las claves de desarrollo de la entidad, que últimamente no ha dejado de apostar por los productos informativos.
De hecho, tal es su influencia, que un informe publicado por el centro de investigaciones Pew Research Center aseguraba ya en 2014 que los medios sociales como ella estaban cambiando la forma en que consumimos noticias, las encontramos, interactuamos y hablamos de ellas, las encontramos, otorgamos fiabilidad y un largo etcétera que ya te puedes suponer. Unos puntos clave que podrían venirse abajo si el sistema de selección falla.
Y esto es precisamente lo que ha ocurrido: que el nuevo algoritmo haya dado lugar a una serie de confusiones y errores durante estos días. Destacamos el caso con el que abríamos nuestro análisis: el del supuesto despido de la popular periodista de la Fox News, Megyn Kelly, con motivo, teóricamente, de su apoyo a Clinton.
Una noticia que destilaba el aroma inconfundible de la falsedad en la que se describía a la susodicha como una auténtica traidora y de la que se hicieron eco en la plataforma sin dudarlo, a pesar de que fueron muchos los medios que no tardaron en desmentirla inmediatamente. Otra de las publicaciones destacadas acataba e insultaba a una columnista que, por el contrario, simpatizaba con el candidato republicano Donald Trump.
Pero las relacionadas con la política no han sido las únicas meteduras de pata, sino que otro contenido destacado enlazaba a un vídeo de un hombre masturbándose con una hamburguesa del MacDonald’s (un caso que se ha convertido, por cierto, en un auténtico bombazo en Twitter y que cuenta con su propio hashtag). Además y en las últimas jornadas, también se ha filtrado un titular relacionado con la humorista Ann Coulter en el que se le tachaba de racista.
Por otra parte, cabe mencionar que el propio funcionamiento del algoritmo, al margen de los fallos y dado que recaba los temas de los que las personas están hablando, acaba con algo fundamental en el proceso de selección de las noticias. Es decir, si partimos del punto de vista que habitualmente el periodismo y los medios de comunicación (una responsabilidad que habría pasado a la red social en este caso) tenían una función de whatchdog y se encargaban de evidenciar ciertos temas; este nuevo sistema de selección no garantizaría en absoluto esta premisa.
O sea, si bien resulta evidente que se destacarán las noticias más leídas y que resulten interesantes para la gente, esto no quiere decir que se trate ni de las más importantes, ni de las mejores, ni de las que cuenten con datos más fiables. Y para prueba, lo que ha ocurrido.
Otras consideraciones
Para acabar y relacionado con todo lo acontecido, no podemos dejar de mencionar un algoritmo que también llamó nuestra atención a principios de este mismo mes. Nos estamos refiriendo al del Washington Post, que durante los Juegos Olímpicos de Río empezó a utilizar una serie de robots para redactar las noticias en tiempo real sobre determinadas competiciones.
Un avanzado sistema de inteligencia artificial llamado Heliograf, capaz de analizar la información que iba surgiendo respecto a los juegos para, a posteriori, crear una noticia y publicarla como si se tratase de un ser humano. Una tecnología que se centró en datos básicos y que se puso en marcha con el objetivo de aligerar la tarea de los editores para que pudieran centrarse en reportajes, análisis y otros textos de mayor valor.
En todo caso y aunque este mecanismo se postula como un método mucho más útil a la hora de determinar qué datos y qué información es importante, fue supervisado en todo momento por cuatro empleados de la redacción del diario. Algo que debería tener en cuenta Facebook y que la citada publicación volverá a poner en marcha para las próximas elecciones estadounidenses de noviembre.
En Xataka | Esta noticias que lees acerca de los Juegos Olímpicos pudo haber sido escrito por un robot
En Genbeta | ¿Manipula Facebook ideológicamente su contenido? ¿Debería? Estas son las acusaciones y aclaraciones
Ver 3 comentarios