Facebook, conjuntamente con muchas otras redes sociales, se está convirtiendo en un centro de opiniones sobre noticias de actualidad y política. Prueba de ello son las campañas enteramente sociales que estamos viendo antes de las elecciones municipales españolas, por ejemplo. Y en Facebook hay equipos de personas que realizan estudios para analizar esta tendencia.
Eytan Bakshy es un científico especialista en ciencia de datos que trabaja en Facebook, y precisamente ha lanzado un estudio referente a las noticias políticas que vemos en nuestra portada a diario: creemos que lo que aparece ahí depende del propio algoritmo de la red social, pero por lo visto depende más de nosotros mismos.
Repasemos: lo que nos aparece en nuestra portada de Facebook nos lo muestra un algoritmo, que siempre nos intenta mostrar lo que más nos interese para que así hagamos click en el contenido y generemos ingresos mediante la publicidad y enlaces referidos que nos aparece durante toda esa interacción. De hecho una noticia de actualidad muy relacionada con esto es el cambio de ese algoritmo para priorizar más lo que publiquen nuestros amigos y no las Facebook Pages.
Dos filtros: el algoritmo y el usuario. Y el filtro del usuario actúa sobre los resultados del algoritmo
Y claro, si nosotros publicamos regularmente enlaces o contenido defendiendo a un partido político el algoritmo nos hará ver más contenido sobre ese partido que de otros con los que podemos estar en desacuerdo. Si nos gusta Podemos, veremos enlaces sobre Podemos. Si nos gusta Ciudadanos, veremos contenido de Ciudadanos.
Por lo tanto, las noticias que consumimos desde Facebook son "filtradas" por ese algoritmo. Pero según el estudio, somos nosotros los que influimos más en ese filtrado de noticias. Más que incluso el algoritmo de Facebook. ¿Por qué? Porque nosotros también somos propensos a ignorar las noticias que nos coloque el algoritmo en la portada, dependiendo de si nos interesan más o menos. Dicho de otro modo, actuamos como un "segundo filtro" que polariza todavía más la inclinación política del contenido que nos aparezca.
El estudio se ha realizado con diez millones de usuarios estadounidenses de Facebook que comparten su ideología política claramente en su perfil (el fortísimo bipartidismo demócrata/liberal-republicano/conservador del país facilita las cosas). Así es como interpretan el resultado:
Al final encontramos que las elecciones individuales en términos de quién eligen como amigos y qué seleccionan [de las noticias en su portada] cuentan más que el efecto de la ordenación que hace el algoritmo.
Resulta que el algoritmo reduce la cantidad de noticias que no comparten la ideología del usuario sólo un 1%. Pero los usuarios conservadores que ven contenido liberal (que muestra el algoritmo) harán click en esas noticias un 17% menos de media. Y los liberales harán click un 6% menos en contenido conservador.
"No es nuestra culpa, tú también lo haces"
A modo de reflexión tras mostrar los resultados, Facebook comenta en su estudio que la polarización de las noticias que ve un usuario en Facebook no es algo bueno. Y es verdad, lo ideal es poder leer las opiniones contrarias y poder sacar tus propias conclusiones. Pero al mismo tiempo también defienden que el grado de polarización de su algoritmo (el primer filtro) es leve mientras que el usuario (el segundo filtro) es el responsable de llenar su portada con contenido cada vez más parcial.
Pero cuidado: el segundo filtro actúa de amplificador del primer filtro. Es decir, el usuario hace click en unas noticias e ignora otras, pero partiendo de una base ya filtrada por el algoritmo. Facebook se lava las manos opinando que "la exposición a puntos de vista opuestos es asociada a menores niveles de participación en la política", de modo que critica la polarización de noticias pero al mismo tiempo intenta defender lo que hace su algoritmo.
Así que aquí todos polarizamos. Tanto el algoritmo de Facebook como nosotros cuando hacemos click sobre noticias que nos interesen. Facebook dice que es malo pero al mismo tiempo evita afrontar que parte de la culpa es suya. Al fin y al cabo, lo que elegimos leer o ignorar es lo que ese algoritmo nos coloca.
Imagen | Andrew Moore, amonroy, Donkeyhotey
En Genbeta | Cómo parecer feliz en Facebook puede ser utilizado contra ti en un juicio
Ver 3 comentarios