El jueves de la semana pasada, dos comisiones del Parlamento Europeo (la de Mercado Interior y la de Libertades Civiles) aprobaron conjuntamente una serie de enmiendas (aquí el PDF) al texto del Reglamento de Inteligencia Artificial propuesto por la Comisión Europea, y cuya aprobación no se debatirá en el Pleno del Parlamento hasta mediados de junio.
La actualización del texto original era necesaria, pues se basa en un borrador de hace dos años que ignora todos los debates abiertos en este último año de 'boom' de la IA: las referencias a creación de imágenes tienen que ver con la creación de deepfakes —pero no con problemas de copyright—, las IAs de generación de textos ni se contemplan, etc.
Sin embargo, aunque se introducen medidas que encontrarán poca oposición, como la prohibición de sistemas de identificación biométrica, los de predicción policial o los de reconocimiento de emociones, otros aspectos de esta actualización están resultando ser, sin duda, polémicos…
…sobre todo por cómo afectarán a los proyectos de código abierto, precisamente ahora que empezaban a ser reconocidos como rivales serios tanto por Google —en un muy comentado informe interno que señalaba como rival a futuro no a OpenAI, sino al open source— como por el propio OpenAI —que, pese a haber abandonado ellos mismos su apuesta por lo 'open', al menos parcialmente, reconocen recientemente en boca de su CEO que las IAs open source serán "más que suficiente" para la mayoría de los usos que les demos en el futuro—.
Nuevos requisitos
Entre las novedades que presenta con respecto al texto original, se añaden nuevas obligaciones para los autores de 'modelos básicos' de IA generativa, destacando cosas como
- La bomba de las 'funcionalidades previstas'. Los proyectos de IA complejos deberán ser dados de alta ante las instituciones europeas, registrando su "funcionalidad prevista" y exponiéndose a ser cancelado si se exceden de la misma. Los proyectos de código— como po p o más anárquicos que van añadiendo funcionalidades sobre la marcha tienen un problema aquí (bueno, tienen muchos más… sigue leyendo, sigue).
- No hay nada más viral que la burocracia. Antes y después del lanzamiento de los servicios, los estados miembro llevarán a cabo pruebas que cobrarán a la empresa solicitante según su tamaño, si bien los aspectos de referencia de dichas pruebas no se han definido.
- Adiós a APIs que permitan innovar, sólo podrán ofrecer más de lo mismo. Si los modelos muestran habilidades inesperadas durante las citadas pruebas, deberán volver a pasar por todo el proceso de certificación… al igual que ocurrirá con las aplicaciones que hagan uso de una API y encuentren la manera de lograr que el modelo original haga cosas imprevistas. Esto es, si ChatGPT hubiera pasado ya por dichas pruebas, AutoGPT debería darse de alta como una IA diferenciada.
- Juzgar al pequeño y pobre por la vara de medir del grande y rico. Por si te lo estabas preguntando… no, los proyectos de IA open source no están exentos de todos estos requisitos. Adiós a ir añadiendo funcionalidades sobre la marcha, adiós a iniciar proyectos sin tener grandes inversores detrás… y adiós a la colaboración de la comunidad, dado que sobre los programadores recaerá la responsabilidad legal del incumplimiento de los requisitos burocráticos.
- La LoRA, ilegalizada. A efectos prácticos, la LoRa (Low-Rank Adaptation) una técnica usada para agregar lentamente nuevos datos y capacidades a un modelo sin reentrenarlo (y, por tanto, abaratando enormemente su desarrollo), queda, a efectos prácticos, prohibida. Recordemos que la LoRa es un aspecto básico de los principales proyectos de IA open source, a causa de sus limitaciones presupuestarias.
- Mi jurisdicción es mía, y la tuya también. No está pensada sólo para aplicarse a servicios de IA establecidos en la UE, sino también a aquellos "destinados a ser utilizados" por usuarios de la UE. Esto es, si un programador estadounidense (o ghanés, o ecuatoriano…) publica en GitHub un modelo de IA y éste es accesible desde la UE, tanto el programador como GitHub serán perseguidos por la UE por crear/alojar IA sin licencia.
- Riesgos demasiado genéricos. Entre los aspectos que deberán demostrar dichas pruebas se menciona explícitamente haber "mitigado los riesgos razonablemente previsibles para la salud, la seguridad, los derechos fundamentales, el medio ambiente y la democracia y el Estado de Derecho". Buena suerte a la hora de definir la mitad de esos ítems.
- Todos somos iguales, pero unos más que otros. Sin embargo, sí hay proyectos exentos de todos estos requisitos: los que se utilicen para "tareas de I+D o de producción de energía limpia".
Multa por no hacer lo imposible
Además, Borja Adsuara, ex-director general de Red.es, analiza el texto en un artículo recién publicado, del que destacamos dos de sus conclusiones, que indican que los legisladores podrían estar regulando cosas que no conocen demasiado bien:
"Sobre "documentar y publicar un resumen suficientemente detallado del uso para entrenamiento de los 'datos' protegidos por la ley de derechos de autor", parece harto complicado, pues pueden haberse utilizado millones de 'datos'".
"Respecto a "capacitar y, en su caso, diseñar y desarrollar un modelo básico de manera que se aseguren las garantías adecuadas contra la generación de contenidos ilegales", simplemente eso es algo imposible".
Imagen | Imagen de Pete Linforth en Pixabay, Imagen de Chaos07 en Pixabay, Imagen de WallpaperFlare
Ver 4 comentarios