Cada vez vemos más situaciones que podrían ser sacadas de un episodio de 'Black Mirror'. A finales del año pasado, el usuario de Reddit 'deepfakes' demostró que se puede crear una especie de porno a la carta.
Gracias a la inteligencia artificial, ha ido creciendo esta tendencia de poner caras de famosas en cuerpos de actrices porno. Ahora conocemos que plataformas como PornHub, Twitter, Discord o Gfycat han comenzado a banear este tipo de contenido.
"No toleramos el contenido no consensuado"
En el caso de PornHub, uno de los principales portales de porno, afirman que han tomado esta decisión ya que se trata de algo "no consensuado", y no permiten ese tipo de vídeos en su web.
"No toleramos ningún tipo de contenido no consensuado en nuestra web, y lo eliminaremos lo antes posible cada vez que lo encontremos. El contenido no consensuado viola directamente nuestras políticas".
Por su parte, Twitter también han iniciado una guerra contra este tipo de vídeos. Afirman que suspenderan las cuentas de aquellos que sean identificados como los creadores de dicho contenido, al igual que aquellos que se dediquen a distribuirlo.
En cambio, estos vídeos campan a sus anchas en Reddit, donde el subreddit r/deepfakes ya tiene más de 90.000 suscriptores y no dejan de publicarse más vídeos falsos de celebridades.
La realidad es que esta tecnología todavía está en una fase embrionaria, y los resultados son sorprendentes. Pronto llegaremos a un escenario en el que nos costará distinguir el contenido real del falso.
Actualización (07/02/18 - 21:21): sólo unas horas después de salir este artículo, Reddit ha decidido censurar el subreddit en el que se compartía este tipo de contenido. Como vemos, dicen que se incumplen sus políticas, al ser "pornografía involuntaria".
En Genbeta | Los usuarios de Pornhub consumieron casi 4 millones de terabytes de porno en 2017, pero tú no estabas viendo nada
Ver 1 comentarios