Ya hubo problemas en EE.UU. con un abogado que lo utilizó para un escrito legal… y el chatbot se inventó la mayoría de las sentencias citadas. Por eso la guía británica les recuerda a sus jueces que la IA alucina
La IA es buena comprendiendo textos burocráticos, más sometidos a patrones predecibles que la poesía o la narrativa, por ejemplo. Incluso si esa burocracia es de hace miles de años. También parece ser buena manejando leyes, dado que un concejal brasileño pudo presentar hace poco una normativa generada por ChatGPT y lograr que ésta se aprobase sin cambios.
Quizá por ello, recientemente el Reino Unido ha dado un paso inesperado incorporando la inteligencia artificial a su sistema judicial al permitir que los jueces utilicen ChatGPT (y otras herramientas de IA) para auxiliarles en la redacción de resoluciones legales y en otras tareas burocráticas relacionadas con la justicia.
Esta decisión ya ha generado, por supuesto, un debate sobre la correlación de riesgos y beneficios que vendría de la mano de implementar la IA también en el ámbito legal.
¿Cómo ha pasado esto? Pues mediante la publicación de una guía de 8 páginas (PDF), elaborada por la Oficina Judicial del Reino Unido y dirigida a los jueces de Inglaterra y Gales (Escocia e Irlanda del Norte son autónomos en esta área). En ella, se les orienta sobre cómo emplear la IA para realizar sus labores de manera más efectiva, y se les autoriza explícitamente a utilizar ChatGPT.
"—ChatGPT, ¿ordenó el acusado el código rojo? —…"
Aunque existe la tentación de quedarnos solamente con el dato chocante de "¡los jueces van a elaborar sus sentencias con ChatGPT!", la guía también advierte sobre los riesgos potenciales de usar la IA en el sistema judicial… como la ya consabida posibilidad de que las respuestas generadas por la IA sean inexactas, incompletas, engañosas o sesgadas, por lo que recomienda a los jueces que verifiquen la exactitud de las respuestas generadas antes de tomar decisiones que puedan afectar a las personas involucradas.
La guía también destaca preocupaciones relacionadas con la privacidad, señalando que las empresas de IA pueden recopilar información de las interacciones de los usuarios con los chatbots. Por lo tanto, se insta a los jueces a tratar cualquier información ingresada en la interfaz de un chatbot como si fuera pública.
A pesar de lo novedoso que resulte, en realidad algunos jueces ya habían utilizado ChatGPT antes: un juez del Tribunal de Apelaciones de Inglaterra y Gales, Sir Geoffrey Vos, describió a ChatGPT como una herramienta "muy útil" que utilizó para resumir teorías legales y copiarlas en una resolución oficial. Sin embargo, destaca que utilizó la herramienta sólo para reelaborar información con la que ya estaba familiarizado, y que no incluía datos confidenciales.
Los experimentos, con gaseosa (al otro lado del Atlántico)
La actitud británica hacia el uso legal de la IA parece más abierta a experimentar que la de la más destacada de sus antiguas colonias: en Estados Unidos, una demandan por intrusismo profesional puso fin a un experimento de DoNotPay para usar una inteligencia artificial que ejerciera como abogado generando documentos para reclamaciones.
Alegaban que ChatGPT "no cuenta con un título en Derecho", aunque lo cierto es que ha demostrado ser capaz de aprobar el examen estadounidense de acceso a la abogacía.
ChatGPT también se ha convertido en los EE.UU. en la posible razón del fin de la carrera de un abogado con 30 años de experiencia por inventarse sentencias judiciales. O más bien, por dejar que ChatGPT se las invente y no verificarlas personalmente a continuación. Obligado a justificarse ante el juez, el abogado explicó que desconocía que las IAs pudieran 'alucinar' y generar así contenidos totalmente inventados.
Imagen | Marcos Merino mediante IA
Ver todos los comentarios en https://www.genbeta.com
VER 2 Comentarios