Un juez frena el uso de la IA para 'mejorar' pruebas forenses en juicios: ni sus creadores creen que sirva para eso

  • Es todo estadística, igual que cuando ChatGPT 'calcula' qué respondernos: el resultado es más 'agradable a la vista', pero no real

  • La fiscalía alega que esta tecnología inventa, no reconstruye

Ojo Cuidao
Sin comentarios Facebook Twitter Flipboard E-mail

En un fallo considerado pionero dentro del sistema judicial estadounidense, un juez del estado de Washington ha dictaminado en contra de admitir como evidencia en un juicio (por triple homicidio) unos vídeos 'mejorados' con IA. Un juez del condado de King, fundamentó su decisión en la naturaleza novedosa de la tecnología empleada para la mejora del vídeo, señalando que su uso podría llevar a una confusión de los hechos y un entorpecimiento del testimonio de testigos oculares.

Joshua Puloka, de 46 años, está acusado de abrir fuego fuera de un bar en el área de Seattle en 2021, resultando en tres muertes y dos heridos, pero alegó defensa propia, y sus abogados sostuvieron en la vista judicial de febrero que había estado tratando de calmar una situación violenta cuando fue asaltado y estallaron los disparos.

Por ello, la defensa buscaba introducir en el caso como prueba un vídeo grabado con un teléfono móvil y posteriormente 'mejorado' mediante software de IA, con el argumento de que proporcionaría una visión más clara de los eventos.

Los argumentos de la Fiscalía

Sin embargo, tanto la fiscalía como expertos independientes criticaron la fiabilidad de dichas mejoras, argumentando que la IA no funciona recuperando mágicamente información no capturada en su momento, sino que se limita a especular qué información podría situar en los 'huecos' y mejorar la resolución de la imagen con un mero cálculo probabilístico, igual que hace ChatGPT con el texto de sus respuestas.

Al fin y al cabo, todo depende de un algoritmo y, bueno, ya nos hemos encontrado con resultados ruinosos antes:

Gkmf8flxsaadcpu La IA reductora de melanina (el original es Barack Obama pixelado).

Eso no sólo puede crear información que nunca estuvo allí, sino también alterar datos vitales presentes en los vídeos, lo que llevaría a interpretaciones erróneas o engañosas de los hechos. De hecho, según el documento de la oficina del fiscal, el vídeo mejorado 'predecía' imágenes en lugar de reflejar el tamaño, la forma, los bordes y el color capturados en el video original.

En definitiva, calificaba las imágenes mejoradas de "inexactas, engañosas y poco fiables". Un experto consultado por la fiscalía, Grant Fredericks, profundizaba más al respecto, aseverando que cada píxel

"de vídeo generado por IA es nuevo, lo que da como resultado un material que puede parecer más agradable a la vista de un observador no especializado, pero que contiene la ilusión de claridad y una mayor resolución de imagen que no representa con precisión los eventos de la escena original".

Ni siquiera los creadores de la tecnología apoyaban ese tipo de uso

Aunque útil a la hora de ampliar la resolución y tamaño de imágenes con fines de diseño gráfico, la tecnología responsable de estas 'mejoras', desarrollada por la empresa Topaz Labs, ya había sido cuestionada por su aplicación en contextos forenses y legales. La propia empresa, de hecho, ha recomendado no usar con ese fin su tecnología, insistiendo en las diferencias que hay entre mejorar visualmente un video para propósitos creativos y alterar evidencia utilizada en un juicio.

Este fallo sienta un precedente en este debate sobre la fiabilidad forense de la inteligencia artificial, después de que varios expertos en el campo solicitasen someter a una mayor investigación su uso en este contexto.

Vía | NBC News

Imagen | Marcos Merino mediante IA

En Genbeta | Los rostros generados mediante IA ya nos resultan más 'reales' que las fotos de otros humanos. Aunque hay excepciones

Comentarios cerrados
Inicio