Por mucho que cueste creerlo, muchos de los rostros que vemos hoy día en Internet o en la calle, y que suelen usarse como recurso publicitario en banners, carteles, o productos alimenticios, son caras generadas por inteligencia artificial. La tecnología está tan avanzada en este campo que, a veces es tremendamente complejo saber si una cara es real o ha sido generada a través de machine learning.
Dos investigadores expertos han publicado un estudio sobre las caras generadas mediante inteligencia artificial. En su estudio, muchos de los participantes no fueron capaces de reconocer cuál de ellas era verdaderamente real.
Diferenciar un rostro humano de uno generado por IA es cada vez más difícil
Sophie Nightingale, del Departamento de Psicología de la Universidad de Lancaster, y Hany Farid, del Departamento de Ingeniería Eléctrica y Ciencias de la Computación en California, realizaron una investigación que involucraba rostros de fotografías reales e imágenes generadas por inteligencia artificial. En su investigación, concluyeron que a día de hoy, 'nadie puede notar la diferencia'.
Para realizar el estudio, contaron con la ayuda de 315 participantes que tuvieron que determinar si los rostros presentados eran reales o no. En una de las partes del estudio, las caras 'falsas' fueron identificadas en tan solo un 48,2% de las veces. En otra de las pruebas, antes de ponerse manos a la obra, los participantes obtuvieron cierto conocimiento y ayuda sobre los puntos clave para identificar los rostros. Si bien aquí acertaron un 59% de las veces, no hubo mayor mejora en los resultados.
Otra de las pruebas realizadas trataba sobre puntuar del 1 al 7 cómo de fidedigna era la cara mostrada. Los participantes seleccionaron como más 'fidedignas' aquellas caras generadas por IA. Si bien mostraban más confianza sobre los rostros que sonreían, cabe resaltar que el 65,5% de las caras reales el 58,8% de las falsas sonreían.
Una técnica para mostrar el rostro más fidedigno
Las caras generadas por IA fueron creadas a través de Red Generativa Antagónica (GAN). En esta técnica, dos redes neuronales se enfrentan la una con la otra para ir mostrando ejemplos hasta que la red va entrenándose por sí sola y así poder generar un contenido cada vez mejor. Se empieza con un array aleatorio de píxeles y poco a poco va aprendiendo sobre cómo generar un rostro. Un discriminador, elemento utilizado en el campo de la computación distribuida, se encarga de aprender a detectar la cara, y si éste la detecta, penaliza a la red que genera el rostro. Así hasta que poco a poco acaba siendo indistinguible para el discriminador, y por tanto, para el ser humano.
Los participantes tuvieron que identificar un total de 400 imágenes reales y 400 imágenes generadas por IA de personas de distinta raza y género. Es curioso saber que, en el estudio, las caras blancas masculinas eran las que se clasificaban con menor precisión.
Los autores mencionaban en el estudio que, aquellos que se dedican a crear este tipo de tecnologías deberían considerar si los beneficios superan los riesgos. Actualmente existen grandes esfuerzos por mejorar la detección de deepfakes y similares, como la C2PA (Coalition for Content Provenance and Authenticity) avalada por tecnológicas como Adobe, Arm o Microsoft. Diferenciar un rostro artificial de uno real comienza a ser realmente difícil para muchos, suponiendo un problema grave, sobre todo para la proliferación de fake news. Es por ello que deben de existir sistemas de detección cada vez más precisos y complejos.
Ver 2 comentarios