Los usos de la inteligencia artificial cada vez son mayores, y algunos de ellos se centran en el lenguaje, como la IA de Microsoft que promete mejorar nuestra escritura de forma automática. Con otros ejemplos, como Deep TabNine, una herramienta que ayudar a los desarrolladores mediante Deep Learning, queda claro que la IA puede potenciar y continuar el trabajo de los humanos pero, ¿qué sucede cuando el trabajo de una IA se centra en analizar el de otra IA?
En plena época de deepfakes, tanto en vídeo como en audio, el texto tampoco se libra de poder ser generado mediante inteligencia artificial. Para lograr detectarlo, investigadores del MIT han desarrollado una herramienta potenciada por inteligencia artificial. Bajo el nombre de Giant Language Model Test Room (GLTR), esta herramienta es capaz de detectar qué partes de un texto han sido generadas mediante un algoritmo.
Una inteligencia artificial que detecta el trabajo de otra inteligencia artificial
Actualmente existen inteligencias artificiales capaces de crear noticias falsas en cuestión de segundos. La capacidad de distinguir cuándo un texto ha sido escrito mediante una IA y cuando no cobra pues más importancia que nunca (aunque no sea solamente la IA la que crea noticias falsas). Desde el MIT-IBM Watson Lab han creado GLTR, una herramienta en fase de demostración, que permite "la inspección forense de la huella visual de un modelo de idioma en el texto de entrada".
En otras palabras, es capaz de detectar los fragmentos de texto que han sido generados mediante algoritmos. La herramienta puede ser probada por cualquier persona, con tres textos de ejemplo generados por una IA, y otros tres ejemplos de artículos generados por humanos.
Las palabras se identifican mediante colores. Cuando es muy probable que una palabra aparezca después de la palabra anterior, aparece de color verde. Cuando es menos probable, se marcan en amarillo y rojo, y por último, en púrpura. Si un texto tiene una buena carga de palabras improbables, podemos empezar a sospechar de que puede que se haya generado con una IA.
Probando la herramienta
Para probar la herramienta, hemos utilizado una herramienta de la que te hablamos hace un tiempo: Talk To Transformer. Esta se encarga de autompletar los textos que escribamos, a veces con más éxito, a veces con menos. En este caso, ha detectado como poco probables tres palabras de las que hemos escrito (nuestro texto finaliza en el 'AI' de la primera frase), y a lo largo del texto ha seguido detectando palabras improbables.
No obstante, a partir del segundo 'AI', todo el texto está generado por una IA, por lo el funcionamiento de esta herramienta todavía tiene camino por delante. Decir, a favor de Talk To Transformer, que, en ocasiones, logra bastante coherencia a la hora de generar los textos, lo que puede dificultar su detección. No obstante, resulta curioso que se esté entrenando a IAs para analizar información generada por IA, con orientación a detectar cuándo estamos leyendo información falsa y cuándo no.
Ver todos los comentarios en https://www.genbeta.com
VER 1 Comentario