¿Se puede poner puertas la campo? La primera demanda en Estados Unidos de este tipo abre un amplio debate sobre el uso de la IA en las escuelas
Era un melón que tarde o temprano iba a pasar, y como todo debate que comienza, no sabemos dónde terminará. Hasta ahora habíamos tenido más o menos claro para qué deberíamos hacer uso de la IA, y, quizás más interesante, para que no, o no tanto. Ahí el cajón de sastre era tan amplio como cualquier tecnología en sus albores: el arte, la cultura en general y ciertos temas sobre seguridad han sido los primeros en entrar de lleno en el debate. Sin embargo, el del uso académico de la IA es más delicado porque es "como ponerle puertas al campo", ¿o quizás no?
La noticia. En lo que parece ser el primer caso de este tipo, al menos en Estados Unidos, una pareja ha demandado a su distrito escolar local. La razón: el colegio sancionó a su hijo después de que éste usara herramientas de IA generativa en un proyecto de historia. Como veremos, el caso no es tan sencillo como parece y abre un buen debate a otros niveles. De fondo, la gran pregunta: ¿cómo lidiamos con la IA en las escuelas?
El futuro en juego. Tal y como alegan Dale y Jennifer Harris, en el manual del estudiante oficial de la escuela secundaria Hingham (y suponemos que en el de la mayoría de las escuelas que no lo hayan actualizado recientemente) no prohibía explícitamente el uso de IA para completar tareas.
Por tanto y según los progenitores, el castigo que recibió su hijo por usar una herramienta de inteligencia artificial (recibió lo que en USA se denomina como “detención” o castigo un sábado junto a una calificación de 65 sobre 100 en la tarea) va a perjudicar las posibilidades del chico de ingresar a la universidad a la que aspiraba, nada menos que Stanford, junto a otras opciones de escuelas de élite.
La demanda. Por todo ello, la demanda de la familia Harris, inicialmente presentada en un tribunal superior estatal antes de ser trasladada a un tribunal de distrito federal, detalla que, “los acusados continuaron con un camino generalizado, destructivo y despiadado de amenazas, intimidación y coerción para afectar y descarrilar el futuro [de nuestro hijo] y su historial ejemplar”.
La defensa. Por su parte, la escuela de Hingham indica que, aunque no estaba incluido específicamente el uso de la IA en los trabajos escolares, afirman que su manual para estudiantes prohibía el uso de “tecnología no autorizada” y el “uso no autorizado o imitación cercana del lenguaje y los pensamientos de otro autor y la representación de ellos como obra propia”.
Primer fallo. El distrito dijo en una reciente moción de desestimación que la disciplina administrada al hijo de los Harris era “relativamente indulgente” y que un fallo contrario “invitaría a los padres y estudiantes insatisfechos a desafiar la disciplina diaria, incluso la calificación de los estudiantes, en los tribunales estatales y federales”.
Regular o no regular. Lo contamos hace un tiempo. Cuando los colegios y las instituciones académicas vieron de lejos acercarse a las primeras versiones de ChatGPT y similares, todos tuvieron claro que llegaba un problema. Si bien la herramienta conversacional de OpenAI tiene una capacidad “innata” para ayudar a los estudiantes a resolver dudas y mejorar el aprendizaje y comprensión de todo tipo de conceptos, su “reverso tenebroso” estaba ahí: chuletas o “trampas” para trabajos o exámenes cada vez más elaboradas, tanto como el escolar en cuestión entrenara al algoritmo.
Las medidas. Contaba The Washington Post sobre el debate que el departamento de educación de Nueva York fue uno de los primeros en tomar medidas prohibiendo el uso de ChatGPT en redes y dispositivos del campus. En California se han enviado mensajes a los estudiantes advirtiendo del uso de software de escritura mediante IA. Incluso se ha llegado a pedir que los trabajos se entreguen a mano o mediante plataformas que impiden las operaciones de copiar y pegar.
En el otro lado del planeta, las ocho principales universidades australianas han modificado sus métodos de evaluación hacia fórmulas más tradicionales como "un mayor uso de los exámenes y tests a papel y bolígrafo". ¿Y en España? El ministerio de Educación trata de ponerse al día cada cierto tiempo, analizando las herramientas, sus novedades e implicaciones.
Además, existen aplicaciones y software que tratan de “encontrar” o detectar el uso de herramientas de IA de forma fraudulenta, pero en un contexto como el de los algoritmos, las IAs generativas siempre van a llevar ventaja sobre cualquiera de los métodos paliativos.
Un primer ejemplo. En el caso que nos ocupa, la familia Harris alega que su hijo fue perseguido injustamente por el distrito escolar de Hingham porque aplicó la “disciplina” (usar la IA) de manera inconsistente. Tras el incidente, el distrito no colocó a su hijo en la Sociedad Nacional de Honor (aunque finalmente parece que sí), afirman, cuando, según los Harris, anteriormente se había permitido que otro estudiante que usó herramientas de IA para escribir un trabajo en inglés se uniera a la sociedad.
Un problema que está lejos de amainar. La demanda, además, va más allá, ya que también cuestiona si el uso de la IA para completar tareas debería o no prohibirse. De hecho, se señala que el Departamento de Educación Primaria y Secundaria de Massachusetts no ha emitido ninguna regla o guía para las escuelas sobre el uso de la tecnología.
Imagen | Pexels
Ver todos los comentarios en https://www.genbeta.com
VER 2 Comentarios