La inteligencia artificial es algo a lo que últimamente nos estamos enfrentando más a menudo. Sobre todo después del lanzamiento de herramientas de IAs generativas como ChatGPT, Bing Chat o Bard, las cuales han comenzado a redefinir el uso que le damos a Internet. Aún queda un largo recorrido de aprendizaje y mejora para este tipo de herramientas, aunque cada vez son más los usuarios que se aventuran hacia ellas. Sin embargo, hay veces en las que la IA nos ha complicado la vida más que otra cosa.
Uno de los ejemplos más claros es la tecnología de Captcha. Desarrollada para alejar a los bots de un sitio web o aplicación y de paso entrenar sistemas de reconocimiento de imágenes o texto, está claro que muchas veces estos sistemas nos incordian más de la cuenta en nuestro día a día. Además, se ha demostrado en múltiples ocasiones que es posible desarrollar bots que se salten las restricciones de estos captchas, por lo que a veces podemos llegar a pensar que estos sistemas molestan más que protegen a la web.
Captchas que no se pueden resolver por culpa de la IA
Para ilustrar este sentimiento, recientemente explicaban en Vice que un grupo de usuarios en Discord se tuvieron que enfrentar a un captcha inusual. Y es que el sistema les pedía identificar todas las imágenes en las que apareciera un "Yoko". Y no, en ninguna de ellas aparecía ni Yoko Ono ni Yoko Taro. De hecho, la imagen de referencia era una especie de caracol metalizado. Sin embargo, hablamos de un objeto que no existe, y eso ha acabado confundiendo a los usuarios.
Tal y como se puede apreciar en la imagen, éstas parecen haber sido generadas por inteligencia artificial, ocasionando una gran polémica entre la comunidad, ya que muchos usuarios perdían el tiempo resolviendo este pequeño acertijo sin poder acceder a la aplicación en cuestión. Algunos hasta se preguntaron sobre si "realmente eran humanos" por no poder acceder tras la prueba de captcha.
El sistema de captcha de Discord está producido por la empresa hCaptcha. De hecho, debido al suceso ocasionado, el medio contactó con Discord para averiguar qué es lo que estaba sucediendo, a lo que respondieron de la siguiente manera:
"la tecnología que genera estos mensajes es propiedad de nuestro socio externo y Discord no determina directamente lo que se presenta a los usuarios".
La empresa hCaptcha también ha ofrecido declaraciones al respecto, aclarando que este test fue visto por un grupo muy pequeño de personas:
"Aunque la mayoría de las interacciones con hCaptcha no dan lugar a un desafío visual, se utilizan muchas variantes en un momento dado. Esta pregunta en particular fue una breve prueba vista por un pequeño número de personas, pero la gran escala de hCaptcha (cientos de millones de usuarios) significa que cuando incluso unas pocas personas son sorprendidas por un desafío esto a menudo produce algunos tweets".
Además de ofrecer herramientas de seguridad a sus socios, hCaptcha también utiliza su tecnología para entrenar sistemas de machine learning y redes neuronales antagónicas. No es la primera vez que los usuarios se topan con este tipo de problemas a la hora de interactuar con sistemas de captcha. De hecho, un usuario en Reddit afirma haber estado unos 10 minutos intentando iniciar sesión por culpa de un captcha que le pedía seleccionar aquellas imágenes que contuvieran un robot. Y claro, pese a parecer una pregunta clara, ni siquiera el propio sistema validaba como correctas las respuestas, impidiendo que el usuario pudiese acceder al servicio.
Que la IA espere una respuesta que nosotros como humanos no podamos ofrecer es el principal problema por el cual se generan estas situaciones. Además, para entrenar este tipo de sistemas se requiere multitud de input por parte de los usuarios, haciendo que cada vez sea más probable que la IA mezcle conceptos y "alucine".
En Genbeta | Te veo, te oigo… y me timan, porque no eres tú. Los ciberestafadores ya clonan rostros y voces en videollamadas