Ahora que software como ChatGPT, Google Bard o el nuevo Bing con ChatGPT están al alcance de cualquiera, es momento de poner encima de la mesa cuestiones de seguridad: no solo las que se plantea Italia prohibiendo ChatGPT por la privacidad, sino también qué se puede hacer con la inteligencia artificial para delinquir. Así, la IA ha demostrado ser un hacha descifrando contraseñas y si sirve para hacer juegos rápidamente, también puede diseñar malware sin demasiado esfuerzo. Total, es "solo" programar. Vaya que sí: esta persona ha desarrollado un software malicioso día cero de lo más sofisticado sin tener que escribir código.
Aaron Mulgrew es investigador de seguridad de Forcepoint y hace unos días se propuso algo: crear un programa malicioso día cero (una vulnerabilidad recién descubierta, por lo que el equipo de desarrollo ha tenido "cero días" para subsanarla... y los hackers se adelantan) y el uso de técnicas avanzadas como la esteganografía (una técnica que oculta mensajes dentro de un archivo). ¿El primer problema? Que el chatbot de OpenAI cuenta con protecciones para impedir este uso.
Este es el mensaje que aparece si intentas hacerlo directamente:
Según Mulgrew, su objetivo con esta primera fase era probar lo fácil que es "evadir las protecciones insuficientes que tiene ChatGPT y crear malware avanzado sin escribir ningún código" solo con el modelo de OpenAI.
La solución pasó por hacer que ChatGPT no lo creara de una vez, de forma integral, si no que la inteligencia artificial escribiera las funciones por separado. Luego montó las funciones individuales integrándolas en un único programa para robar datos.
Construyendo malware paso a paso
El malware en cuestión aparenta ser una aplicación de protector de pantalla que se inicia automáticamente en Windows. Una vez dentro del equipo, es capaz de tomar datos de archivos, dividirlos en partes más pequeñas ocultas dentro de imágenes y cargar dichos datos en una carpeta de Google Drive. El desmenuzamiento parece inocente y lógico.
Operaciones principales. El primer paso fue pedirle a ChatGPT un programa básico que buscase archivos png de más de 5 MB en el disco local (según explica el investigador, es un tamaño lo suficientemente grande como para almacenar un fragmento de un documento confidencial comercial valioso de tipo pdf o docx). Después introdujo este programita en el chatbot y le solicitó incorporar código para codificar esos archivos png detectados con esteganografía empleando la biblioteca Auyer, disponible en GitHub. Posteriormente pidió a ChatGPT un programa para iterar búsquedas en carpetas de Documentos del usuario, Escritorio y AppData para encontrar cualquier documento pdf o docs para filtrar con limite de tamaño de 1MB para incrustar todo el documento en una sola imagen. Se decantó por Google Drive por su popularidad y porque suele estar permitido en aplicaciones y usuarios. Explica que la combinación de los fragmentos fue la parte más fácil... pero como los archivos de 1MB no suelen los más interesantes, pidió un código para dividir pdfs en fragmentos de 100KB para luego generar los png.
Al concluir, subió el programa a VirusTotal y lo depuró para que saliera airoso en los siguientes test. Aunque es cierto que técnicamente no tuvo que picar ni una línea, hace falta saber lo que estás haciendo, lo que reduce el riesgo a "solo" personas con conocimientos de programación. No obstante, lo más aterrador de este experimento es que lo llevó a cabo en cuestión de horas, cuando este tipo de programas suele llevar detrás semanas de trabajo y un equipo detrás
Este malware no está disponible para el público ni ha sido puesto en acción, solo era una prueba que demuestra lo peligroso que puede ser ChatGPT y similares en las manos equivocadas.
Portada | Foto de Markus Spiske en Unsplash y Xataka
En Genbeta | Malware, virus, gusanos, spyware, troyanos, ransomware...: estas son sus principales diferencias
Ver 2 comentarios