OpenAI ha confirmado más de 20 ciberataques que provenían de hackers de China e Irán usando ChatGPT y otros LLM
ChatGPT es usado a diario para muchos usos diferentes. En el campo educativo es común verlo actuando como un alumno más, resolviendo exámenes o creando trabajos, e incluso en el campo de la programación a la hora de buscar lo que está mal en un código que no funciona. Pero más allá de estos usos inocuos, hay ciertas personas (o incluso países) que están usando ChatGPT para generar un mal.
Ha sido la propia OpenAI la que lo ha confirmado. Sus ingenieros han detectado en las últimas semanas más de 20 ciberataques que se habrían hecho con la ayuda de ChatGPT y otras herramientas LLM que tenemos a nuestro alcance. ¿Los responsables de estos ciberataques? Hackers chinos e iraníes que han encontrado en las IA la forma de desarrollar el código de su malware y depurarlo.
ChatGPT como una herramienta básica para generar ataques de malware
El primero de estos ataques orquestados por ChatGPT se realizó por parte de activistas chinos contra los gobiernos de varios países asiáticos. Este usó el método SweetSpecter. Una técnica de phishing que se centra en utilizar un archivo .zip con el archivo malicioso en su interior. El objetivo es que al descargarlo es capaz de infectar el equipo. Toda una técnica que se desarrolló cen parte con ChatGPT para generar el código.
El grupo de hackers iraní conocido como "CyberAv3ngers" también usó ChatGPT para sus tareas. En concreto, explotaron la vulnerabilidad y robaron las contraseñas de los usuarios con macOS. Y en Irán también encontramos al grupo 'Storm-0817' que usaron ChatGPT para acceder a la lista de contactos y registros de llamadas de los usuarios de Android.
Tal y como ha mencionado OpenAI, ChatGPT se ha utilizado para estas tareas pero sin que los hackers hayan sido demasiado originales. Es decir, las técnicas usadas y los métodos empleados son realmente conocidos sin haber creado un malware con una variante nueva. Pero esto nos pone en un gran peligro a todos, ya que vemos lo fácil que puede llegar a ser para una persona con conocimientos básicos crear un malware para atacar a cualquier persona.
Para ello es importante aplicar diferentes filtros de seguridad a la IA para que no pueda usarse con fines maliciosos. Y no hablamos solo de OpenAI, sino de cualquier empresa que cuente ahora mismo con una IA como puede ser Google o Meta. De momento se están centrando en compartir información entre varias empresas para tratar de evitar estos ciberataques, una tarea que no es nada sencilla.
Imágenes | Bernd 📷 Dittrich Cliff Hang
En Genbeta | Internet Archive ha sido hackeado: los datos de 31 millones de cuentas se han expuesto
Ver todos los comentarios en https://www.genbeta.com
VER 1 Comentario