Con la llegada de la inteligencia artificial muchos estudiantes vieron el 'cielo abierto' al pensar que estas podrían hacerles sus exámenes online o los trabajos con un simple prompt. Aunque para ello hay que tener en cuenta que la IA no es perfecta, y es algo que ha quedado patente en las pruebas que hemos realizado sobre un examen real durante estos días.
La prueba la he realizado personalmente en un curso de formación continuada en el campo sanitario utilizando Google Bard. Y es que la IA de Google permite que se le pueda preguntar sobre diferentes documentos como los apuntes que se tengan de clase o el PDF en el que se basa un curso.
Google Bard como aliado ante los exámenes... o no
Es cierto que en este caso existen algunas limitaciones en la subida de datos, ya que a través de Chrome se permite compartir con Bard imágenes en JPG, PNG o WEBP. Pero para poder hacerle preguntas sobre un PDF en concreto, he podido subir el archivo a Google Drive y compartirle el enlace (siendo el mismo que le pasamos a un compañero para que visualice el archivo).
A partir de aquí simplemente hemos comenzado a copiar y pegar las preguntas tipo test que se me hacían en la plataforma de docencia Moodle. Me sorprendió particularmente que Bard pudiera detectar el tipo de pregunta que se le estaba diciendo sin hacer absolutamente nada. Interpretó que existían cuatro opciones para responder al enunciado que le daba en el prompt sin tener que detallar nada de manera previa.
En este caso la respuesta que me ofreció Bard fue realmente completa, y sobre todo convincente. Y es que tras decir cuál es de las cuatro respuestas que se daba en el prompt, también ofrece una explicación detallada supuestamente usando únicamente el contenido que hay en el archivo que se ha compartido de manera directa o a través del enlace de Google Drive.
Pero el problema llega cuando tras introducir todas las respuestas en el formulario que ofrecía Google Bard y sin mirar absolutamente nada de los apuntes, le doy a comprobar los resultados. Los resultados arrojan al momento que la IA se ha equivocado en la interpretación en 3 de las 10 preguntas. Es decir, ha acertado un total del 70% del examen y ha fallado un 30%.
Al analizar aquellas preguntas que había fallado, se pudo detectar que no es capaz de comprender perfectamente aquellas en las que se pide que se marque la respuesta que es errónea. Esto es algo realmente típicos en los exámenes tipos test donde los docentes quieren que descartes la opción que no se ajusta al enunciado que se presenta.
Esto nos hace ver que la IA no es perfecta para dejarla de manera independiente trabajar y hacer un examen tipo test de este estilo aunque tenga acceso a la información base. Si es cierto que no es un auténtico desastre y que ha conseguido pasar el examen con un notable, y si se pasa a una muestra más grande estos porcentajes he podido comprobar que se mantienen (incluso con ChatGPT sin tener acceso a estos archivos base).
De esta manera, Bard se puede usar como una herramienta de apoyo para el campo de la educación pero no se puede depositar toda la confianza en esta IA. Hay que preparar el temario y revisar bien las respuestas que se están dando con el propio temario con el objetivo de conseguir una buena nota y sobre todo el aprobado.
En Genbeta | Cinco cosas que puedes pedirle ya a Google Bard que son imposibles con ChatGPT
Ver 5 comentarios