Hace unas horas, cientos de medios de todo el mundo (incluidos nosotros) se quedaron impresionados al probar DeepNude, una app que “desnudaba” a mujeres con inteligencia artificial.
Hablamos en pasado porque su creador (que, al parecer, se llama Alberto) ha decidido finalizar este proyecto, tras ver toda la polémica y expectación que ha generado su herramienta en tan pocas horas.
De sobrecarga a ahondar en cuestiones éticas
Y es que, en el día de ayer vieron como sus servidores no podían soportar semejante sobrecarga, y mediante un tweet reconocieron que habían “subestimado mucho” el interés que podría despertar esta herramienta.
— deepnudeapp (@deepnudeapp) 27 de junio de 2019
De todos modos, en un primer momento parecía que presumían de estar teniendo tantas descargas, al mismo tiempo que pedían disculpas a las personas que la habían descargado y paciencia a los que intentaban instalarla.
We are sorry for the various problems. Really. We didn't expect this traffic. The best thing, if it doesn't download well now, is to try later.
— deepnudeapp (@deepnudeapp) 27 de junio de 2019
Finalmente, viendo las críticas que estaban recibiendo, confirmaron que daban por finalizado este proyecto (al menos de momento), asegurando que “existe una probabilidad demasiado alta de que la gente haga mal uso” de él.
“No queremos hacer dinero de esta manera. Seguramente se compartan copias de DeepNude en la web, pero no queremos ser los que las vendan”.
Recordamos que esta aplicación se anunciaba como “el superpoder que siempre quisiste tener”, y tampoco hay que olvidar que sólo funcionaba con mujeres (si adjuntabas una foto de un hombre aparecía un hombre desnudo con pechos de mujer y vagina). De todos modos, el creador aseguró que estaba trabajando en una versión masculina.

Para lograrlo, DeepNude utilizaba el algoritmo pix2pix, desarrollado por la Universidad de Berkeley (California) en el año 2017. Entrenaron a este algoritmo con más de 10.000 mujeres desnudos, y para poder utilizar la versión completa pedían 100 dólares.
Tras probarla, comprobamos como DeepNude arrojaba unos resultados muy preocupantes. Aplicaciones como esta y todo lo que se está generando alrededor de los deepfakes nos hacen imaginar un futuro cercano en el que será difícil distinguir si estamos ante un contenido real o generado por una IA.
Ver 5 comentarios
5 comentarios
NullPointerException
Pues yo en cuanto pueda me monto un proyecto open source con una GAN para hacer esto mismo y que te lo puedas desplegar en localhost. A ver como mierdas van a censurarme un open source estos putos Justice Social Warriors.
vistaero2
Bueno, tras tanto escándalo decidí probarla tal y como hago con todos los experimentos de machine learning que salen al público. ¿Es tan mágica y preocupante como se dice? Para nada, es otra mierda de IA de edición de imágenes sobrestimada por los medios. Ningún resultado es tan siquiera creíble a simple vista. Es lo mismo que haría un inútil con Photoshop y con un montón de ruido y distorsiones, y eso sin contar con la marca de agua.
Patético que se quisiera cobrar 100 dólares y patético que tanta gente la viera tan amenazadora. Debería haber pasado sin pena ni gloria como una app curiosa más, sin utilidad ninguna para hacer el mal.
NullPointerException
Hay que ver como lo está petando la nueva iglesia misándrica...
holeinriver
-“hay una probabilidad muy alta de que se utilice indebidamente”
Pablo Escobar cuando deja de traficar con droga, no sea que su uso tenga alguna contra-indicación.
cmked
En resumen: Se ha forrado pero bien y ha decidido pararlo antes de tener problemas por mal uso.