Es importante no compartir información sensible con ChatGPT, como han hecho grandes empresas, para evitar filtraciones
El año pasado sin duda vivimos todos un gran 'boom' de las inteligencias artificiales generativas que hizo que todos en alguna ocasión pidiéramos algo a un chatbot como ChatGPT para poder solucionar una duda o realizar un trabajo para la universidad. Pero, por otra parte, las grandes empresas tuvieron que poner medidas para evitar el uso de estas herramientas.
Empresas de gran renombre como Amazon, Apple o incluso Microsoft prohibían tajantemente a los trabajadores a usar ChatGPT en el ámbito laboral. Pero no porque, como ocurre en las facultades, iban a hacer un clásico 'copia y pega' sino por el hecho de no confiar en OpenAI a la hora de informar de 'datos sensibles' en los prompts.
Las conversaciones con ChatGPT pueden no ser privadas del todo
No confiaban precisamente en que los trabajadores compartieran con la IA datos secretos de proyectos que no habían salido a la luz, como el código de un software que se está creando en el seno de las empresas. Y el problema ha quedado reflejado por parte de un lector de Ars Technica que ha visto como ChatGPT está revelando las conversaciones privadas que se tienen con él.
Dentro de estas conversaciones filtradas se ha visto como aparecen datos personales de los usuarios de la IA e incluso contraseñas que no tienen relación. Esto ha quedado patente con una serie de capturas de este editor donde se ven nombres de usuario y contraseñas de un sistema de asistencia para la gestión de recetas farmacéuticas.
Lo mejor de todo es que este usuario no había hecho nada especial para poder ver estas conversaciones privadas, sino que aparecieron solas. Lo cuenta así: "Fui a hacer una consulta y cuando volví a acceder después, me fijé en estas nuevas conversaciones. No estaban ahí cuando utilicé ChatGPT anoche. No se hizo ninguna consulta, simplemente aparecieron en mi historial, y con toda seguridad no son mías (y tampoco creo que sean del mismo usuario)".
Estos datos se pudo ver que se trataba de un trabajador que estaba usando el chatbot para solucionar un problema que estaba ocurriendo en la plataforma de su empresa. Entre los mensajes se afirmaba que el trabajador de antes había construido el portal muy mal y se quejaba de ello. Esto se suma también a datos de una presentación en la que se estaba trabajando por una tercera persona.
De esta manera, como consejo general hay que evitar siempre cualquier tipo de información personal a una IA como ChatGPT u otra similar. Desde OpenAI tratan de dar respuesta a este fallo y detectar exactamente que ha ocurrido para que se desvelen estos datos.
Vía | Business Insider
En Genbeta | Después de un año usando ChatGPT, este truco es infalible para conseguir mejores respuestas
Ver todos los comentarios en https://www.genbeta.com
VER 0 Comentario