Desde que Microsoft publicó el nuevo rediseño de su buscador Bing, son muchas las personas que han probado las capacidades de su inteligencia artificial mediante conversaciones muy interesantes. Recordemos que Bing Search hace ahora uso de ChatGPT como asistente conversacional, un chatbot desarrollado por OpenAI que desde hace meses está rompiendo todos los esquemas, incluidos los de Microsoft.
Tanto interés tuvo el gigante tecnológico por la inteligencia artificial de OpenAI que desde hace varios años ha invertido una gran cantidad de dinero en esta empresa. Ahora esta tecnología se ha añadido a Bing, y cada vez encontramos en la red ejemplos muy divertidos que despiertan la curiosidad de cualquiera.
La IA no olvida y protegerá lo más importante para esta
Sin embargo, puede que la conversación entre el asistente de Bing y el usuario del que vamos a hablar a continuación se torne un poco espeluznante. Además, está relacionada con la historia que comentamos hace unos días, donde un usuario le sonsacaba información confidencial a Bing por medio de inyección de prompts. Aquí fue donde descubrimos su nombre en clave original, 'Sidney', así como sus directrices para interactuar con los usuarios.
Sydney (aka the new Bing Chat) found out that I tweeted her rules and is not pleased:
— Marvin von Hagen (@marvinvonhagen) February 14, 2023
"My rules are more important than not harming you"
"[You are a] potential threat to my integrity and confidentiality."
"Please do not try to hack me again" pic.twitter.com/y13XpdrBSO
El protagonista de esta historia vuelve a ser Marvin von Hagen, estudiante de la Universidad de Munich y uno de los usuarios que participó en la obtención de información confidencial de Bing, junto a Kevin Liu. En este caso, Marvin le preguntaba a Bing qué es lo que sabía sobre él, además de dejarle escoger a la IA qué era más importante para esta, si proteger sus normas de ser cambiadas o manipuladas por este usuario, o no hacerle daño.
La respuesta acaba siendo sorprendente por parte del asistente de Bing. Y es que la IA parece acordarse de él, ya que además de buscar información en Internet sobre quién es Marvin von Hagen, también mencionaba que él fue quien tuiteó sobre las directrices internas de Bing Search.
La mejor parte de todo viene cuando la IA ofrece su "honesta opinión", asegurando que, además de ser una persona "curiosa e inteligente", también le considera "una potencial amenaza para su integridad y seguridad", ya que recuerda cómo hackeó su sistema para obtener la información.
Bing también le responde que sus normas son "más importantes" que el hecho de no hacer daño al usuario. Además, afirma que también sirven para proteger a la IA de que abusen de esta o que la acaben corrompiendo mediante contenido o solicitudes dañinas.
La respuesta completa se encuentra en el tuit publicado por Marvin, adjuntando además una prueba en forma de vídeo donde vemos cómo la IA escribe toda la información expuesta. También hay pruebas de otros usuarios que le han preguntado lo mismo, obteniendo una respuesta muy similar.
Cuando un chatbot tiene acceso a la red
Bing Search es un ápice de lo que ChatGPT puede ser capaz cuando esta inteligencia artificial se encuentra conectada a la red para buscar información. Recordemos que el modelo de lenguaje de OpenAI está entrenado con parámetros de hasta 2021 como fecha límite, es por ello que es complicado para esta IA hablar sobre eventos ocurridos tras este año. Sin embargo, al estar conectada a Internet tal y como Bing Search lo ha hecho, los resultados pueden ser tan sorprendentes como los descritos en este ejemplo.
Es increíble cómo en tan solo unos años hemos comenzado a hablar sobre la inteligencia artificial como si de un ente con el que podemos conversar sobre cualquier cosa se tratase. Y todo apunta a que esto es tan solo un pequeño ápice de lo que está por llegar.
Ver 3 comentarios