Investigadores de Sensity, una compañía de seguridad con sede en Ámsterdam, ha revelado que una inteligencia artificial se ha encargado de crear y compartir más de 100.000 deepfakes a partir de fotos de mujeres reales.
En estas fotos (modificadas por un bot basado en una inteligencia artificial), las mujeres que han sido víctimas de esta tecnología aparecen desnudas, y estas fotos se están compartiendo en canales de Telegram.
Su uso creció un 200% en los últimos tres meses
Los usuarios se dedicaban a enviar fotografías de mujeres a este bot de Telegram, para luego recibir la imagen modificada sin tener que pagar nada y apareciendo una marca de agua en la misma.
Eso sí, si la persona decidía pagar (2,10 dólares por una "moneda premium") recibía dos bonus: no tener que esperar a que el bot procesara la imagen y recibirla sin ningún tipo de marca de agua.
Desde Sensity informan que a mediados de julio habían calculado que el bot había generado aproximadamente unos 104.000 deepfakes de desnudos de mujeres. Afirman que en los últimos tres meses la demanda ha crecido en un 200%.
No es la primera vez que hablamos de deepfakes y el uso de esta tecnología para "desnudar" a mujeres. El año pasado 'DeepNude' ocupó muchos titulares, pero su creador decidió cerrar la app tras toda la polémica que se había generado alrededor de ella.
De todos modos, en muchos casos se ha utilizado esta tecnología para utilizar vídeos o fotografías de mujeres famosas. En este caso, los investigadores de Sensity se han encontrado que la mayor parte de las víctimas parecen ser fotografías de mujeres que conocen en la vida real o que se pueden encontrar por las redes sociales.
Un dato más preocupante es que desde Sensity afirman que han encontrado también fotografías en las que aparecen menores de edad. Señalan que el 70% de los usuarios de este bot residen en Rusia, un país que recientemente levantó el bloqueo a esta app tras llegar a un "acuerdo" con su creador, Pavel Durov.
Lo que queda claro es que el uso de esta tecnología cada vez es más accesible para todo el mundo, algo que podría llevarnos a algunos escenarios preocupantes. Desde Sensity afirman que la mayoría de las personas que utilizan estos bots estarían buscando consumir este tipo de "pornografía".
De todos modos, podrían darse casos en los que algunas personas puedan utilizar este material para extorsionar o amenazar a quienes aparecen en la imagen. Giorgio Patrini, CEO de Sensity, reveló a The Verge que non han podido ver pruebas directas de este tipo de amenazas, pero creen que esto está sucediendo.
Ver 2 comentarios