Clonar la voz de alguien para pedirle a sus abuelos dinero por teléfono, el nuevo timo que la inteligencia artificial hace posible

Una abuela recibe una llamada de su nieto. Está en el calabozo, sin cartera ni móvil, y necesita dinero para pagar la fianza. Ruth y su esposo Greg, dos ancianos canadienses, corrieron a retirar 3.000 dólares canadienses (un poco más de 2.000 euros) a su banco. "Teníamos que ayudarlo inmediatamente".

Tras eso, fueron a una segunda sucursal para sacar dinero de otra cuenta. Pero allí el director les llevó a su oficina y les explicó que otro cliente había pasado por lo mismo: una llamada de alguien que le pedía dinero con la voz de un familiar... pero que no era él.

Fue entonces cuando el director les habló sobre los deepfakes de audio: la posibilidad de usar la IA para sintetizar voces ajenas, con sólo unos segundos de muestra de la voz a imitar, que pueden grabarse en cualquier sitio (o, directamente, extraerse de cuentas de TikTok, YouTube, Instagram y similares). El récord, por ahora, está en sólo tres segundos de audio.

1 de cada 7 suplantaciones de identidad en los EE.UU. se lleva a cabo con falsificaciones de voz

Pero el director de la sucursal les habló sobre eso... y sobre cómo habían empezado a usar esta tecnología para perpetrar estafas, habitualmente contra personas mayores. En 2022, las suplantaciones de identidad han sido la segunda modalidad de estafa más practicada en Estados Unidos, con más de 36.000 denuncias de gente estafada por personas que fingían ser amigos o familiares.

Y en torno a uno de cada siete de estos casos se ejecutaron a través de teléfono (aunque no está claro que todos estos casos puedan atribuirse a la IA, claro).

Mucha gente sigue relacionando 'deepfake' con pornografía falsa de famosos o con vídeos de YouTube de doblajes graciosos. Pero los criminales también le están dando buen uso a la tecnología

The Washington Post menciona otro caso aún peor: el de otra pareja de ancianos que había perdido 21.000 dólares canadienses en los honorarios legales de un abogado que tenía que sacar a su hijo de la cárcel por matar a un diplomático en un accidente de coche. El dinero se envió al 'abogado' a través de una terminal de bitcoin.

Cuando su hijo, Benjamin Perkin, les llamó despreocupado esa misma noche, no entendían nada: ellos mismos habían hablado con él, y él les había dicho que necesitaba el dinero. Perkin tiene un canal de YouTube en el que habla sobre su afición a las motos de nieve. No está claro que el audio haya salido de ahí, pero es el único registro online de su voz que se le ocurre.

¿Quién tiene la culpa?

Hany Farid, profesor de forense digital en la Universidad de California en Berkeley, sostiene que los tribunales tendrían que responsabilizar a las empresas de IA por el mal uso de sus productos, y declaraba lo siguiente en The Washington Post:

"Es aterrador, una especie de tormenta perfecta... con todos los ingredientes que necesitas para crear caos. Hace dos años, incluso hace un año, se necesitaba mucho audio para clonar la voz de una persona. Ahora ... si tienes una página de Facebook... o si has grabado un TikTok y tu voz está allí durante 30 segundos, la gente puede clonar tu voz".

Pero claro, sería complicado saber a qué empresa culpar sin antes detener a los estafadores. Y Farid parece olvidar que ya existen numerosas soluciones open source o gratuitas para realizar esta clase de falsificaciones de audio.

Un vistazo a…
¡QUE NO TE ENGAÑEN! Los principales TIMOS en COMPRAS ONLINE y CÓMO EVITARLOS

Un consejo para evitar problemas

En el último libro de la saga 'Harry Potter' hay una escena en la que uno de los personajes hace una pregunta a Harry cuya respuesta sólo él podría conocer, para asegurarse de que es él mismo y no alguien que ha adoptado sus rasgos haciendo uso de magia.

"Cualquier tecnología suficientemente avanzada es indistinguible de la magia", dijo Arthur C. Clarke, quien no sabemos si vio venir que a estas alturas de la historia podría 'tomarse prestada' la cara o la voz de alguien de forma realista incluso para sus propios familiares.

Quizá sea bueno, por precaución, empezar a imitar a Remus Lupin y pedirle a nuestros padres y abuelos que, en caso de recibir alguna llamada de este tipo, desconfíen por sistema y hagan preguntas para verificar que la voz al otro lado del teléfono es la nuestra.

Vía | The Washington Post

Ver todos los comentarios en https://www.genbeta.com

VER 1 Comentario

Portada de Genbeta