Nos preocupaba y ha pasado: los estafadores ya recurren a llamadas de voces clonadas por IA para intentar sacarnos dinero

Ojo a este testimonio hecho público por el INCIBE (Instituto Nacional de Ciberseguridad de España)

Voz Clonada
Sin comentarios Facebook Twitter Flipboard E-mail

La suplantación de voz utilizando inteligencia artificial es una técnica de estafa en auge, y un desafío para las medidas tradicionales de verificación de identidad. Ahora, el INCIBE se hace eco del caso de una usuaria que llamó al 017 (la Línea de Ayuda en Ciberseguridad) denunciando un caso de fraude en el que presuntamente se recurrió a la IA para suplantar la voz de un familiar.

Un vistazo a…
¡QUE NO TE ENGAÑEN! Los principales TIMOS en COMPRAS ONLINE y CÓMO EVITARLOS

¿Qué ha ocurrido?

Una mujer, preocupada por la seguridad de su familia, se puso en contacto con el 017 tras recibir una llamada sospechosa en su teléfono móvil. La llamada provenía de un número desconocido, pero al contestar, escuchó una voz que reconoció inmediatamente... era la de su marido, quien le decía:

"¡Hola! No te puedo llamar, envíame un mensaje a este número ______".

Sospechando que algo no estaba bien, la usuaria decidió no enviar el mensaje al número proporcionado y optó por llamar al teléfono habitual de su pareja. Al hablar con él, confirmó que él no había realizado dicha llamada. Confundidos y alarmados, la pareja concluyó que la llamada podría haber sido generada mediante inteligencia artificial.

Gracias a que la usuaria no siguió las instrucciones de la llamada sospechosa, evitó caer en una posible trampa. Si hubiera enviado un mensaje al número proporcionado, los delincuentes podrían haber entablado una conversación haciéndose pasar por su marido y solicitar datos personales y bancarios, o incluso pedir transferencias de dinero bajo algún pretexto convincente, a imagen y semejanza del 'timo del hijo en apuros'.

¿Cómo lograron los ciberdelincuentes suplantar la voz?

Aunque no hay evidencia de que existan vídeos públicos del marido de la usuaria en la web o redes sociales (de los que se habrían podido extraer audios de su voz y así sintetizarla), sí recordaron que él había recibido anteriormente varias llamadas extrañas.

En estas llamadas, nadie respondía, se escuchaban pitidos o incluso se pedían datos personales. Estas interacciones sospechosas pudieron haber sido grabadas por los delincuentes para luego ser utilizadas en la creación del audio fraudulento.

Explicación del fenómeno. Con los avances en IA, es posible crear audios convincentes con la voz de una persona con sólo unos pocos segundos de grabación. Este tipo de fraude, conocido como 'vishing' (phishing por voz), utiliza tecnología de clonación de voz para engañar a las víctimas, haciéndoles creer que están hablando con un ser querido o una persona de confianza.

¿Qué hacer en estos casos?

Medidas si ya has sido víctima:

  1. Avisar a otros contactos: Informar a amigos y familiares sobre lo sucedido para que estén alertas ante posibles llamadas similares.
  2. Bloquear el número: Impedir futuras llamadas del número sospechoso.
  3. Denunciar: Informar a la Policía Nacional o a la Guardia Civil sobre el número fraudulento.

Precauciones a tomar:

  1. Verificación de información: En caso de recibir una llamada sospechosa, siempre contrastar la información con la persona que supuestamente llama.
  2. No facilitar datos personales ni bancarios.
  3. Evitar seguir indicaciones sospechosas: No entrar en enlaces ni descargar aplicaciones desconocidas.
  4. Uso de palabras clave: Acordar una palabra 'clave' entre familiares y amigos para corroborar la identidad en comunicaciones sospechosas.

Vía | INCIBE

Imagen | Marcos Merino mediante IA

En Genbeta | Cómo denunciar fraudes en Internet y ciberestafas

Inicio