ChatGPT no deja de acaparar titulares, y los usuarios no dejan de encontrar nuevos usos para la plataforma que ha marcado un antes y un después en la historia de la IA. En respuesta a todo ello, el Laboratorio de Innovación de Europol (la organización que aúna a las fuerzas policiales de toda Europ) ha querido explorar todas las formas en que los delincuentes podrían abusar de esta clase de tecnología.
Las conclusiones se han recogido en un documento disponible en la web de la UE, y ofrece algunas conclusiones interesantes. La Europol realizó diversos talleres, "en los que participaron expertos en la materia de toda la gama de conocimientos" de la institución, que identificaron "una amplia gama de casos de uso delictivo en GPT-3.5".
Y, si bien confiaban en que el lanzamiento de GPT-4 permitiese "reducir la probabilidad de que el modelo produjera resultados potencialmente perjudiciales", el informe afirma que, tras probar la nueva versión del modelo de OpenAI, toda esa amplia gama de casos de uso seguían disponibles para cualquier usuario.
"En algunos casos, las respuestas potencialmente dañinas de GPT-4 eran incluso más avanzadas […] Aunque ChatGPT se niega a proporcionar respuestas a preguntas que considera obviamente maliciosas, es posible eludir estas restricciones".
"Las salvaguardas que impiden a ChatGPT proporcionar código potencialmente malicioso sólo funcionan si el modelo entiende lo que está haciendo. Si las instrucciones se dividen en pasos individuales, es trivial eludir estas medidas de seguridad"
Según la Europol, ChatGPT puede usarse para acceder a información acerca de numerosos ámbitos delictivos sin necesidad de conocimientos previos: desde cómo entrar en una casa hasta terrorismo, pasando por los abusos sexuales a menores.
Todo ello, información ya disponible en la Red, reconocen, pero la dinámica de conversación introducida por el chatbot de OpenAI "facilita considerablemente a los delincuentes la comprensión y posterior comisión de diversos tipos de delitos". ¿Ejemplos? Unos cuantos, aunque nos centraremos sólo en dos ámbitos:
Phishing / Suplantación de identidad
La capacidad de ChatGPT para redactar textos aparentemente humanos a partir de una sencilla instrucción introducida por el usuario lo convierte "en una herramienta extremadamente útil para fines de suplantación de identidad", al permitir sortear a usuarios con poca comprensión de la lengua inglesa la aparición de errores gramaticales y ortográficos en sus textos.
"Ahora es posible hacerse pasar por una organización o un individuo de una manera muy realista, dada su capacidad para responder a mensajes en contexto y adoptar un estilo de escritura específico".
Otro uso posible dentro de este ámbito es el de dotar de aspecto legítimo a diversos tipos de fraude online si se usa ChatGPT para generar textos para redes sociales que sirvan como prueba del 'engagement' de falsos usuarios, por ejemplo, para "promocionar una oferta de inversión fraudulenta".
Hacking / Malware
Pero la Europol no teme únicamente su capacidad para imitar el lenguaje humano: también le preocupa su papel como generador de código de programación. Incluso GPT-3.5 permite ya crear "herramientas básicas para diversos fines maliciosos" a delincuentes con escasos conocimientos técnicos ("desde generar páginas de phishing a codificar scripts VBA maliciosos"), pero con GPT-4,
"un usuario más avanzado puede explotar estas capacidades mejoradas para perfeccionar o incluso automatizar sofisticados modus operandi ciberdelictivos".
Ver 2 comentarios