El tecnólogo Aviv Ovadya fue una de las primeras personas que intentó advertir al mundo sobre la amenaza de las noticias falsas en redes sociales. Lo hizo en 2016, antes de las presidenciales estadounidenses. Ahora, recién estrenado el 2018, cree que lo peor todavía está por llegar en forma de un apocalipsis informativo en el que las tecnologías capaces de distorsionar la realidad están evolucionando más rápido que la capacidad para comprender, controlar o mitigar el fenómeno.
Sus primeras preocupaciones surgieron hace casi dos años, cuando vio síntomas de lo que podía pasar. Fue cuando decidió dejar su trabajo y dedicarse a alertar sobre lo que creía que se avecinaba. Semanas antes de la elección de Donald Trump, compartió sus preocupaciones sobre una inminente crisis de desinformación en una presentación que tituló "Infocalypse".
En ella explicaba, cuenta BuzzFeed News en un extenso reportaje tras haberse entrevistado con él, cómo los incentivos que rigen estas plataformas recompensaban de una forma frecuente información que resultaba ser engañosa y polarizante. Vista la situación, sentía que todo se encaminaba hacia un punto crítico de desinformación adictiva y tóxica.
Empleados de grandes tecnológicas, algunos de Facebook, vieron la presentación. A pesar de lo que contaba en ella finalmente sucedió, apenas se tuvo en cuenta. Lo peor de todo es que sus vaticinios no terminaron ahí.
"¿Qué pasa cuando alguien puede hacer que parezca que ha pasado algo?"
"El alarmismo puede ser bueno; debería ser alarmista sobre estas cosas", dijo Ovadya una tarde de enero antes de esbozar con calma una proyección profundamente inquietante sobre las próximas dos décadas de noticias falsas, campañas de desinformación asistidas por inteligencia artificial y propaganda. "Estamos tan jorobados que está más allá de lo que la mayoría de nosotros podemos imaginar", dijo. "Fuimos jorobados hace un año y medio y ahora estamos más jorobados. Y dependiendo de lo lejos que mires hacia el futuro, solamente empeora".
Ovadya imagina ese futuro con una serie de herramientas tecnológicas sofisticadas y fáciles de usar que podrán manipular la realidad o falsificarla sin dejar cabos sueltos. "¿Qué pasa cuando alguien puede hacer que parezca que ha pasado algo, independientemente de si ocurrió o no?", se pregunta.
Ese futuro que roza lo distópico, en parte, está aquí. Uno de los ejemplos más populares han sido los vídeos pornos falsos con famosas creados con algoritmos de aprendizaje automático y software de código abierto que en poco tiempo han tenido que ser baneados en servicios como PornHub, Reddit y Twitter. Otro ejemplo es el vídeo que puede verse encabezando estás líneas, uno de tantos trabajos universitarios en los que es posible convertir clips de audio en un vídeo realista y sincronizado con los labios de una persona grabada. Una manipulación, la del movimiento de labios, que incluso se puede llevar a cabo en tiempo real.
El tecnólogo, graduado por el Instituto Tecnológico de Massachusett, actual jefe en el Centro de Responsabilidad de Medios Sociales de la Universidad de Michigan y miembro de innovación de Knight News en el Tow Center for Journalism Digital en Columbia, cree que esta clase de vídeos podrían tener un efecto desestabilizador en el mundo si se usan como parte de una malintencionada estrategia política.
Existe la "manipulación diplomática", en la que un actor malicioso utiliza tecnología avanzada para "crear la creencia de que un evento ha ocurrido" para influir en la geopolítica. Imagínate, por ejemplo, un algoritmo de aprendizaje automático (que analiza montones de datos para enseñarse a sí mismo a desempeñar una función determinada) alimentado con cientos de horas de imágenes de Donald Trump o del dictador Kim Jong Un, que luego podría escupir un clip de audio o vídeo del líder declarando una guerra nuclear o biológica, prácticamente imposible de distinguir de la realidad. "No tiene que ser perfecto, sólo lo suficientemente bueno para hacer que el enemigo piense que pasó algo que provoca una reacción temeraria de venganza".
Estas tecnologías también podrían materializar lo que Ovadya llama "simulación de política", así como una práctica denominada automated laser phishing. En el primer escenario bots que funcionen a partir de inteligencia artificial serán capaces de manipular a los movimientos políticos, el discurso público y las opiniones que reciben los legisladores y gobernantes en línea, sin que puedan ser descubiertos por ser indistinguibles de pareceres humanos. En el segundo, los objetivos serán personas concretas. Tras analizar su presencia en la red, una inteligencia artificial sería capaz de crear mensajes falsos, pero creíbles, de una víctima sin que sea fácil sospechar sobre ellos.
La parte positiva es que frente a la primera amenaza, la que estalló en las elecciones presidenciales estadounidenses de 2016, se ha admitido el fallo de previsión y se está trabajando para evitar situaciones similares en el futuro. La parte negativa es que frente a estos nuevos riesgos no estamos preparados y, además, no sabemos cuán lejos estamos de su posible utilización masiva. "Muchas de las señales de advertencia ya han tenido lugar", advierte Ovadya.
En Genbeta | 2016: el año en el que las noticias falsas pusieron en jaque la credibilidad de Facebook
Ver 5 comentarios