Hay multitud de herramientas basadas en IA con propósitos muy útiles, pero la suplantación de identidad es un problema que preocupa
Surge en redes un vídeo falso de MrBeast animando a los usuarios a pagar 2 dólares para entrar en un sorteo de un iPhone 15 Pro
Durante los últimos años hemos visto cómo las tecnologías basadas en inteligencia artificial han evolucionado hasta llegar a sorprendernos gratamente. Desde hace un tiempo podemos disfrutar de herramientas que nos permiten generar imágenes con IA, bots conversacionales con respuestas sorprendentes, multitud de aplicaciones enfocadas a la edición de contenido multimedia y mucho más.
Desde ChatGPT, este sector ha pegado un salto brutal, y los modelos de lenguaje cada vez son más precisos y tienen mayor capacidad de acción. Sin embargo, también preocupan dos factores principales que se encuentran a la orden del día: la suplantación de identidad y los deepfakes. Con estas tecnologías punteras, también existe riesgo de desinformación, y ya se ha demostrado en varias ocasiones durante los últimos meses.
Deepfakes muy realistas y MrBeast en el centro del huracán
Uno de los últimos casos tiene que ver con el famoso youtuber y filántropo Jimmy Donaldson, más conocido en Internet como MrBeast. Y es que ha sido protagonista de una estafa que ha estado circulando en Internet durante estos últimos días. Bueno, realmente ha sido una de las víctimas, pues a través de inteligencia artificial han suplantado su identidad por medio de un vídeo donde se le ve a él ofreciendo un sorteo falso de iPhone 15.
Las estafas por medio de sorteos falsos no son una novedad, pero en este caso, la realidad es bastante más espeluznante. Y es que las tecnologías basadas en procesos de IA han evolucionado tanto que ya es posible hasta generar un vídeo con el mismo rostro y voz de una persona. Y lo más sorprendente de todo es que no es nada complicado de hacer.
Analizando el vídeo de forma superficial, podemos ver a MrBeast informando a sus usuarios de que está realizando un sorteo de un iPhone 15 Pro entre 10.000 personas. Para ello te pide que participes donando tan solo dos dólares. Evidentemente se trata de una estafa, ya que ni es MrBeast, ni existe sorteo. Tan solo es otra forma más de engañar a los usuarios ganando dinero por medio de suplantación de identidad.
Hay dos piezas clave que han servido para construir este vídeo falso. Por un lado, se ha obtenido un vídeo de MrBeast real en el que él habla de una cuestión totalmente distinta. Por otro, se ha generado la voz de MrBeast con IA y se ha integrado en el vídeo, cambiando incluso la forma del habla para que las expresiones coincidan con la manera en la que mueve la boca y los labios.
Para ello es posible hacerlo en tan solo unos minutos gracias a herramientas como HeyGen. Aquí tan solo hay que subir un vídeo y un fragmento de audio, y la herramienta se encargará de hacer encajar ese audio de tal manera que se sincronice con el movimiento de la boca. El resultado es realmente sorprendente, y de hecho, creadores de contenido como Dot CSV explican su funcionamiento en detalle.
Si bien esta tecnología se puede utilizar para multitud de aplicaciones, hay quienes también la pueden usar para actos ilícitos, como es el caso del vídeo falso de MrBeast. La suplantación de identidad es un problema real que ha evolucionado considerablemente tras los avances en la IA. Ahora en tan solo unos minutos es posible generar cualquier fragmento de audio con la voz de otra persona, crear imágenes falsas que se ven sorprendentemente realistas, y hasta generar vídeos en tan solo unos minutos.
En el post de MrBeast en X preguntaba si las redes sociales están preparadas para gestionar toda esta nueva oleada de deepfakes. Como se ha podido comprobar, está claro que no, aunque si la inteligencia artificial sirve para generar todo este tipo de contenido, también existen procesos que pueden detectar si cierto contenido ha sido generado mediante IA. Este es el camino a seguir de la gran mayoría de redes sociales, aunque la realidad es que aún se necesita tiempo para incorporar un sistema fiable que pueda determinar y moderar el contenido en base a esta tecnología.
Aunque son tiempos gloriosos para el sector de la inteligencia artificial, también existen ciertos riesgos que no hay que dejar de lado para poder garantizar el funcionamiento de una IA ética y segura para el usuario. Estoy seguro de que todavía no hemos descubierto ni el 1% de las capacidades de este tipo de tecnologías, aunque mientras se exploran las posibilidades, también necesitamos mecanismos de contención, algo complejo teniendo en cuenta que empezamos a no ver los límites de la IA.
Ver todos los comentarios en https://www.genbeta.com
VER 1 Comentario