En realidad, los hackers sólo necesitan una cosa para lograr estos ataques, y muchas veces se lo servimos en bandeja
La evolución de las diferentes tecnologías basadas en la inteligencia artificial puede habernos abierto un mundo de posibilidades, pero también está generando nuevos riesgos. La Policía Nacional ha abordado uno de ellos en su cuenta de TikTok: el 'voice hacking' o hackeo por voz.
Este tipo de estafa, que combina tanto IA como ingeniería social, permite a los ciberdelincuentes clonar la voz de una persona con el objetivo de realizar todo un catálogo de actividades fraudulentas, como extorsiones, suplantaciones de identidad y robo de información confidencial.
¿Qué es el voice hacking y cómo funciona?
Según las autoridades, este fenómeno se está convirtiendo en una amenaza creciente, sobre todo porque la tecnología detrás del voice hacking se perfecciona continuamente. A los delincuentes les basta con recurrir a fragmentos de audio de entre 5 y 30 segundos (obtenidos, por ejemplo, de redes sociales, llamadas telefónicas o grabaciones públicas) para crear réplicas de voz capaces de engañar incluso a los más cautelosos.
Modus operandi
El voice hacking es una técnica en la que se utiliza la IA para imitar la voz de una persona. Este proceso consta de tres etapas principales:
- Obtención de muestras de voz: Los estafadores recopilan fragmentos de audio de la víctima, en la mayoría de los casos sin su conocimiento ni consentimiento, a través de redes sociales o llamadas previas.
- Generación de la voz falsa: Con herramientas avanzadas de clonación de voz, procesan las muestras para crear un modelo sintético que imita el tono, ritmo y emociones de la voz original.
- Ejecutar la estafa: Utilizando esta voz clonada, contactan con familiares, amigos o empleados de la víctima para solicitar dinero, información confidencial o acceso a sistemas de seguridad.
Casos reales: cuando la tecnología se convierte en estafa
Varios casos alrededor del mundo han ilustrado el impacto de esta técnica. El INCIBE destaca tres de ellos:
- El falso secuestro de Jennifer DeStefano (2023): En este caso, una madre recibió una llamada en la que escuchó la voz de su hija, pidiéndole ayuda tras haber sido supuestamente secuestrada. Los delincuentes exigían un rescate de 50.000 dólares. Más tarde, descubrió que su hija estaba a salvo y que la llamada era un montaje creado con IA.
- Estafa a una empresa en Reino Unido (2019): Unos estafadores clonaron la voz del CEO de una empresa para solicitar a uno de sus empleados una transferencia de 220.000 euros a una cuenta fraudulenta. El fraude se descubrió demasiado tarde para recuperar el dinero.
- Caso de Ruth Card (2023): Una mujer canadiense fue engañada con la voz falsa de su nieto, que supuestamente necesitaba dinero para pagar una fianza. Aunque la víctima llegó a retirar los fondos, pudo descubrir antes de entregarlos que era una estafa.
Los riesgos del voice hacking
Las consecuencias de ser víctima de este tipo de fraude son graves y variadas:
- Robo de identidad: Los delincuentes pueden acceder a cuentas bancarias y realizar transacciones fraudulentas.
- Daño reputacional: Los mensajes falsos creados con voces clonadas pueden perjudicar la imagen personal o profesional de una persona.
- Pérdidas económicas: Las víctimas a menudo enfrentan gastos considerables y en muchos casos, el dinero perdido no se puede recuperar.
Cómo protegerse del voice hacking
Aunque esta técnica es avanzada, existen medidas preventivas que pueden minimizar los riesgos:
- Crea una clave de verificación: Acorda con tus contactos un código secreto (por ejemplo, el nombre de una mascota o una fecha especial) para confirmar la autenticidad de llamadas sospechosas.
- Cuida tu información pública: Reduce la cantidad de grabaciones de tu voz en redes sociales y otros espacios accesibles.
- Desconfía de números desconocidos: Ante llamadas urgentes, corta la comunicación y verifica el mensaje llamando directamente a números conocidos.
Imagen |
Ver todos los comentarios en https://www.genbeta.com
VER 0 Comentario