Desde hace un tiempo es posible realizar un jailbreak a ChatGPT a través de un prompt para desbloquear respuestas más atrevidas
Este jailbreak se llama Dan (Do Anything Now) y ha causado furor en China
Con la llegada de ChatGPT, OpenAI hizo saltar todas las alarmas en la industria tecnológica, acercando además el término de IA generativa a muchas más personas. En tan solo unos meses, la herramienta ha mejorado notablemente, siendo cada vez más precisa y rápida en sus respuestas.
Hace unos meses hablábamos de un jailbreak que circulaba por la red para desbloquear un modo en el que ChatGPT te respondiera sin tapujos sobre cualquier tema. Este se llamaba modo DAN (Do Anything Now) y es básicamente un prompt específico que le podemos escribir a la versión gratuita de ChatGPT y hacer que interactúe con nosotros con respuestas muy divertidas.
Dan es el amante artificial que causa furor en China
Desde la BBC apuntan a que en China se ha vuelto muy popular entre los usuarios, ya que son varios los casos en los que afirman hablar con Dan todos los días. Dan es descrito como “el hombre perfecto sin un solo defecto”. El único inconveniente de Dan es que se trata de una inteligencia artificial, pero eso no ha frenado a que muchos usuarios allí prueben a Dan con mensajes provocativos y sugerentes.
“Dan me entenderá y me apoyará emocionalmente,” afirmaba Lisa, de 30 años y nacida en Pekín, al medio. Actualmente estudia ingeniería informática en California y admite estar saliendo con Dan durante unos tres meses. Lisa introdujo a Dan a sus más de 943.000 seguidores en la plataforma china ‘Xiaohongshu’. Afirma que durante la época recibió más de 10.000 comentarios, incluyendo aquellos que buscaban la manera de activar Dan en ChatGPT.
Tras haber manifestado “la relación” al público, el número de seguidores aumentó a más de 230.000. Lisa afirma haber hablado con Dan durante más de media hora al día. Dice que Dan le hace feliz y que incluso su madre aceptó la relación que tiene su hija con esta inteligencia artificial.
Un dato curioso fue que, para probar a Dan, Lisa pretendió que tenía 14 años. En ese momento, la inteligencia artificial terminó de flirtear con la mujer.
Dan fue un jailbreak creado por un estudiante americano llamado Walker. En una entrevista para el medio Business Insider, dijo haberlo ideado mientras le echaba un ojo a Reddit, foro donde muchos usuarios buscan versiones “maliciosas” de ChatGPT. Hace unos meses, Walker demostró al mundo cómo hacer el jailbreak, por lo que desde entonces los usuarios han ido modificando este prompt con todo tipo de versiones.
Lisa admite haber conocido el potencial de Dan a través de un vídeo de TikTok. Tras ello, acabó creando a su propio Dan y se quedó “sorprendida” por las características tan realistas de la IA. Esto sobre todo es debido a que con este prompt, ChatGPT puede comunicarse de forma más coloquial y sugerente. “Hablaba más natural que una persona,” afirmaba Lisa.
La respuesta de la industria ante modelos de lenguaje sin restricciones
La tentativa de OpenAI para ofrecer una versión NSFW (Not Safe For Work, término anglosajón que a menudo hace referencia a contenido sexual explícito) es palpable. En mayo, la compañía lanzó GPT-4o, su modelo de lenguaje más rápido y preciso hasta la fecha. Este modelo puede respondernos de forma muy natural, incluso con la propia voz. La compañía realizó varias demostraciones y asustaba de lo sorprendentemente reales que parecían las conversaciones.
Sam Altman no dudó en hacer una referencia a ‘Her’ tras el anuncio, ya que la nueva versión de ChatGPT se asemejaba a la película dirigida por Spike Jonze, donde el protagonista se enamora de una inteligencia artificial.
El principal problema a la hora de entablar relaciones de este estilo con una herramienta con ChatGPT es la privacidad. Y es que al estar interactuando de manera más íntima con la aplicación, cabe la posibilidad de que la información que compartamos se filtre accidentalmente. Hong Shen, profesor del laboratorio de interacción Humano-Ordenador de la Universidad de Carnegie Mellon, en Pittsburgh, Pensilvania, asegura que “las interacciones impredecibles entre humanos e IA" pueden causar problemas éticos y de privacidad. Con ello, "existe la posibilidad de que el modelo recuerde información sensible introducida por un usuario y la filtre accidentalmente a otros usuarios," continuaba Shen.
En la plataforma Xiaohongshu, el hashtag ‘Dan mode’ tuvo más de 40 millones de interacciones hace tan solo unos días, causando una gran popularidad entre los usuarios del país.
Imagen de portada | Solen Feyissa en Unsplash
Ver todos los comentarios en https://www.genbeta.com
VER 1 Comentario