The Wall Street Journal ha puesto a prueba el algoritmo de recomendaciones de TikTok y ha descubierto su enorme potencia. La red social de más rápido crecimiento del mundo basa su modelo de éxito, en gran medida, en la experiencia que ofrece a sus usuarios con contenido de gran interés para ellos. ¿Cómo? Mediante su poderoso algoritmo.
"La aplicación toma nota de las señales sutiles, como el tiempo que se permanece en un vídeo, para centrarse en lo que los usuarios realmente quieren ver", explican en el reportaje.
La investigación, llevada a cabo utilizando un centenar de cuentas nuevas de TikTok operadas por bots programados con intereses específicos, descubrió que el algoritmo de recomendaciones de TikTok puede determinar los intereses de los nuevos usuarios en menos de dos horas. Incluso, en algunos casos, en apenas 40 minutos tras empezar a usar la aplicación.
El potencial peligro del algoritmo de TikTok
El algoritmo de TikTok, no es ningún secreto, funciona tratando de averiguar cuáles son los intereses de sus usuarios atendiendo a los vídeos que reproducen y cómo interactúan con ellos.
Estos detalles se suman a otros, como la configuración de la propia cuenta o detalles específicos de los vídeos visualizados como pueda ser el idioma que utilizan o el lugar desde el que fueron subidos a la red social. Aunque, claro, no es infalible y algunos usuarios pueden comprobar que el feed personalizado que reciben no casa con sus intereses.
Los bots, recién llegados a TikTok, eran agasajados con vídeos populares con millones de visualizaciones. Piezas que, a priori, podrían gustarles. Sin embargo, conforme estas cuentas automatizadas empezaban a quedarse a ver completamente o revisualizar vídeos sobre los intereses que les habían asignado, el algoritmo empezaba a tomar nota.
No obstante, según la investigación de The Wall Street Journal, a medida que se empezaban ofrecer vídeos teóricamente alineados con los intereses de los bots, estos eran menos populares y, en parte, más susceptibles de contener contenidos delicados o que, directamente, violan las condiciones de servicio de TikTok. Uno de los bots, interesado en contenidos tristes y sobre la depresión, terminó recibiendo un 93 % de vídeos sobre depresión y problemas de salud mental.
"Con el tiempo, las opciones de vídeo se vuelven menos convencionales, menos examinadas por los moderadores y a veces más perturbadoras", subraya la investigación. TikTok le mostraba a otros bots vídeos que, aseguran, fomentan los trastornos alimentarios, sexualizan a los menores y hablan del suicidio.
La defensa de un portavoz de TikTok es que esta investigación no es representativa porque el comportamiento humano es diferente y más diverso, aunque The Wall Street Journal argumenta que incluso bots con intereses diversos, como los que podría tener un humano, llegó a recibir vídeos de una temática determinada en un cantidad superior. Como el que tenía interés en política y terminó llegando a vídeos sobre fraude electoral o conspiraciones de QAnon que otras plataformas, como Twitter, han estado tratando de combatir.
Guillaume Chaslot, un ingeniero que participó en el desarrollo del algoritmo de recomendación de YouTube y que ahora divulga sobre sus potenciales problemas, dijo al medio estadounidense que en la plataforma de vídeos de Google "más del 70 % de las visualizaciones provienen del motor de recomendación", una cifra que considera enorme, pero que en TikTok, ese 90-95 % "es aún peor". "El algoritmo está empujando a la gente hacia un contenido cada vez más extremo, por lo que puede empujarlos a ver más y más tiempo", considera.
Ver 3 comentarios