La inteligencia artificial está suponiendo un auténtico quebradero de cabeza para los organismos legisladores: la gestión de los datos personales, el aprendizaje con obras protegidas por la propiedad intelectual o la forma de ofrecer sus respuestas, envueltas en una palabrería correcta que invita a creer que son correctas, pero que en ocasiones son falaces y además algunas como ChatGPT no ofrecen fuentes para contrastarlo. Europa quiere tomar la delantera a la hora de legislar y ya tiene muy avanzado el marco legal para exigir más a estas herramientas. Uno de los cambios más llamativos es que IAs como ChatGPT tendrán que revelar sus fuentes.
La inteligencia artificial tiene muchos frentes abiertos. La cantidad de información personal recopilada y la dificultad a la hora de acceder a ella o revocarla ya le costó a ChatGPT la prohibición en Italia, mientras otros países europeos miraban con lupa con la la ley de privacidad de la UE en la mano. La forma de entrenarse y aprender para luego reproducir, porque si emplean obras protegidas por la propiedad intelectual para luego luego "inventar" nuevas, en su infinito marco de posibilidades pueden dar con una tecla tan parecida que atente directamente. Vamos, un plagio. O directamente, por atentar contra proyectos open source, algo por lo que OpenAI y Microsoft ya están metidas en litigios. Luego está el peligro de ofrecer respuestas que parecen correctas, pero no lo son y no hay manera de evidenciarlo a simple vista porque en ChatGPT no hay fuentes que avalen lo que el chatbot te dice. Como consecuencia, hay quien pide que se detengan los grandes experimentos con inteligencia artificial hasta que esta sea más fiable y se entienda mejor cómo funciona y los riesgos que implica su uso.
ChatGPT no es la primera, pero sí es con diferencia la inteligencia artificial más mainstream que existe, de hecho es la plataforma con más crecimiento de la historia de internet. Por eso la prohibición de Italia primero para posteriormente levantar el veto tras los cambios realizados en el chatbot de OpenAI se miran con atención. En Europa ya se ha creado un grupo de trabajo especializado en ChatGPT y la UE en su conjunto está elaborando un Reglamento de Inteligencia artificial, del que ya hay un nuevo borrador, como recoge Euractiv, lo que da una idea de lo avanzado de las negociaciones.
Un reglamento muy avanzado y con importantes cambios para la IA
En la Cámara Europea se han alcanzado consensos importantes. Si la nueva normativa sale adelante, hay dos requisitos que implican un cambio fundamental en la inteligencia artificial: el equipo de desarrollo tendrá que respetar las obras con derechos de autor y será obligatorio revelar la procedencia de los datos con los que se produce el entrenamiento de estos modelos de lenguaje. Así, el equipo dev tendrá que documentar con un "resumen suficientemente detallado" qué contenido protegido por la propiedad intelectual se ha empleado para el entrenamiento de modelos de lenguaje por inteligencia artificial, según The Wall Street Journal.
¿Qué pasará si una inteligencia artificial crea contenido a partir de contenido protegido? Según The Wall Street Journal, entonces el o la artista estaría en disposición de reclamar parte de los beneficios basándose en esa inspiración con su obra original como origen. Como ha declarado el codirector del proyecto del organismo en el área de inteligencia artificial, lo que se busca es "aumentar aumentar la responsabilidad, la transparencia y el escrutinio de estos modelos".
Solo es la punta del iceberg. Las dos premisas anteriores son importantes, pero la lista de medidas es extensa y exhaustiva. De forma general, incluirá principios de supervisión humana, seguridad técnica, seguridad, transparencia, bienestar social y diversidad, no discriminación y equidad. Así, aquellos modelos sin propósito específico también serán susceptibles de ceñirse a obligaciones como desarrollarse conforme la legislación de la UE y los derechos fundamentales (incluida la libertad de expresión). También se prohibirán prácticas que supongan riesgos "inaceptables" como la manipulación intencionada, el reconocimiento de emociones o la vigilancia predictiva. Los proveedores del servicio tendrán que cumplir requisitos sobre riesgos, transparencia y gestión de datos, con especial hincapié para aquellas empleadas para gestionar infraestructuras críticas como la energía o el agua por su impacto ambiental. En cuanto al procesamiento de datos confidenciales como la orientación sexual o la religión, estos deberán recibir un tratamiento para anonimizarlos o encriptarlos para evitar sesgos, realizándose en un entorno controlado y posteriormente, deberán ser eliminados, siendo necesario justificar el por qué de su procesamiento.
Portada | Montaje con foto de Kristina Flour en Unsplash y Hablar Vectores por Vecteezy
Ver todos los comentarios en https://www.genbeta.com
VER 5 Comentarios