Resulta difícil encontrarse con alguien que no haya sufrido alguna vez “esa” llamada, de hecho, diría que es un casi expediente X. Nos referimos, por supuesto, a los scammers por teléfono, que no son más que una estafa para ingresar dinero a nuestra costa. Hemos contado muchísimos casos y tipos, y mientras se preparan algunas regulaciones para hacerle frente a esta tortura que padecemos tantos usuarios, ha llegado el héroe sin capa más inesperado: una IA.
Las llamadas y los ancianos. No hay duda de que las estafas telefónicas representan una amenaza significativa, especialmente para los grupos más vulnerables: las personas mayores. Los datos así lo atestiguan: en 2023, los consumidores estadounidenses perdieron un récord de 10 mil millones de dólares debido a fraudes, un incremento del 14 % respecto al año anterior.
Si cruzamos el charco, en Reino Unido más de dos tercios de las personas mayores de 75 años han experimentado al menos un intento de estafa en los últimos seis meses, y el 40 % enfrenta intentos frecuentes.
Daisy. En este caldo de cultivo, un panorama de lo más alarmante, alguien ha tenido una idea que se sale de la norma con una solución innovadora para proteger a las personas más vulnerables: la abuela Daisy. ¿Qué? Sí, la compañía británica de telecomunicaciones O2 ha desarrollado una herramienta basada en IA llamada Daisy, una diseñada para frustrar a los estafadores telefónicos al involucrarlos en conversaciones largas y sin sentido.
Este chatbot, conocido como “dAIsy,” imita la voz de una persona mayor, un escudo para uno de los grupos más vulnerables y comúnmente atacados por los estafadores de este tipo. El propósito es simple, pero de lo más efectivo: hacer que los estafadores pierdan el tiempo y, por ende, proteger a posibles víctimas reales.
Una teleco detrás. Daisy, creada con modelos de lenguaje similares a ChatGPT, se especializa en mantener largas conversaciones sobre temas banales que van desde su "amor" por tejer a historias ficticias sobre su gato "Fluffy". Su objetivo, como decíamos, es claro: ocupar el tiempo de los scams, reduciendo así el disponible para contactar a víctimas reales.
Según Virgin Media O2 en una entrada de su blog, Daisy está "dándole la vuelta al juego de los estafadores, frustrándolos con sus propias armas".
Cómo funcionan las "batallitas" de la abuela. Al parecer, Daisy combina varias tecnologías de IA. A saber: primero una transcripción de voz que convierte el discurso del estafador en texto, luego utiliza modelos de lenguaje para crear respuestas relevantes que mantengan la conversación, y por último convierte dichas respuestas en una voz convincente de mujer anciana.
Pensemos que todos estos procesos ocurren en segundos, haciendo creer a los estafadores que en realidad están hablando con una persona real. Además, Daisy proporciona información falsa, como datos bancarios ficticios, con el fin de mantener el engaño el mayor tiempo posible. De hecho, en grabaciones compartidas por O2 se muestra cómo Daisy ha llegado a desconcertar a algunos estafadores hasta el punto de acabar sacándoles de sus casillas haciéndoles gritar de frustración. Una maravilla.
Impacto de la abuela. Según O2, Daisy ya ha logrado mantener a varios estafadores en línea durante más de 40 minutos. Su diseño, que simula el estilo conversacional lento y detallado de una persona anciana, dicen que maximiza la irritación de los estafadores, quienes a su vez dependen de la velocidad para maximizar sus ganancias.
Los usuarios en Reino Unido pueden redirigir llamadas sospechosas al número 7726, enviando a los estafadores directamente a Daisy. Virgin Media O2 espera que la iniciativa marque una diferencia en medio del aumento de actividades fraudulentas.
Estafas cada vez más sofisticadas. Aunque Daisy representa un avance en la lucha contra el fraude, los estafadores y “scams” también están utilizando herramientas de IA para desarrollar tácticas más sofisticadas. Hemos contado varias, siendo una de las más preocupantes las "clonaciones de voz" (o "deepfakes" de voz) basadas en IA, las cuales utilizan fragmentos de audio para imitar la voz de una persona y cometer fraudes bancarios o extorsiones.
En casos extremos, incluso se han utilizado para hacer creer a las víctimas que han secuestrado a un ser querido, exigiendo rescates falsos. Según McAfee, uno de cada cuatro encuestados ha sido objetivo de este tipo de estafas. Otra vez, herramientas como Daisy podrían ayudar a combatir esta tendencia al enfrentar bots de estafa con IA similares.
Con frases como “Tengo todo el tiempo del mundo, querido”, Daisy encarna una estrategia disruptiva para reducir el impacto de estas estafas. No todo iba a ser demonizar a la IA ya que, bien usada, podríamos estar ante una herramienta que puede convertirse en una pieza clave en la lucha contra el fraude. Eso y, por supuesto, que se consigan desmantelar estas organizaciones con regulaciones efectivas.
Imagen | ironypoisoning
En Genbeta | Mucho cuidado con lo que dices nada más descolgar el teléfono: podrías caer en la trampa de esta nueva estafa
En Genbeta | Mucho cuidado si eres cliente de Movistar: la operadora alerta de una nueva estafa con el cambio de router
Ver 0 comentarios