No entrará en vigor hasta dentro de dos meses, y sus partidarios destacan que promueve un equilibrio entre protección de derechos de las personas y fomento de la innovación
El Parlamento Europeo acaba de marcar un hito histórico aprobando la primera Ley de Inteligencia Artificial a nivel mundial, una norma que se alza ahora como referencia en la regulación de esta tecnología emergente.
El texto, que ha sido objeto de intensos debates y deliberaciones desde su propuesta inicial por la Comisión Europea en abril de 2021, ha sido finalmente ratificado con un amplio respaldo: 523 votos a favor, 46 en contra y 49 abstenciones.
Eso sí, su publicación en el Diario Oficial de la UE no está prevista hasta mayo, con lo que será entonces cuando dé comienzo esta 'nueva era' en la regulación de la IA. Aunque, incluso entonces, pasarán todavía algunos meses mientras todos los países miembros aprueban la implementación de la norma en sus países
Eso no ha impedido al comisario europeo de Mercado Interno, Thierry Breton, destacar que la votación de hoy en el Parlamento Europeo posiciona a la UE como un "definidor de estándares" en materia de inteligencia artificial.
Qué plantea esta nueva normativa
Esta legislación pionera se basa en un marco regulatorio que pretende clasificar los sistemas de IA en cuatro niveles de riesgo, desde mínimo hasta inaceptable, estableciendo estrictos requisitos y certificaciones para los sistemas de IA que se consideran de alto riesgo, con el objetivo de que sólo aquellos que han sido aprobados por las autoridades reguladoras puedan comercializarse.
Estos son los cuatro niveles:
- Riesgo inaceptable: Este nivel incluye los sistemas de IA que representan una clara amenaza para la seguridad, medios de vida y derechos de las personas, y que por ello estarán prohibidos en la UE. Ejemplos de ello serían desde los juguetes con asistencia por voz que promuevan comportamientos peligrosos, a los sistemas de reconocimiento masivo.
- Alto riesgo: Los sistemas clasificados como de alto riesgo están sujetos a obligaciones estrictas antes de su comercialización, como la evaluación y mitigación de riesgos, requisitos de alta calidad para los datasets de entrenamiento, registro de actividades para trazabilidad, documentación detallada y supervisión humana. Esto incluye la identificación biométrica remota y sistemas usados en áreas críticas (justicia, control de fronteras, seguridad de productos, gestión laboral, servicios esenciales...).
- Riesgo limitado: Este nivel se refiere a los sistemas de IA que requieren transparencia en su uso, como los chatbots (que deben identificarse claramente como tales), y el contenido generado por IA (textos, vídeos e imágenes), que deben ser etiquetados como generados artificialmente. La idea es que los usuarios sean conscientes de que están consumiendo contenido generado por IA.
- Riesgo mínimo o nulo: Este nivel permite el uso libre de sistemas de IA que no representan un riesgo significativo, como los utilizados para filtrar spam en correos electrónicos o en ciertos videojuegos. La mayoría de los sistemas de IA en uso hoy en día en la UE caen dentro de esta categoría, por lo que no enfrentarán nuevas obligaciones legales.
Se pretende, así, equilibrar la protección de los derechos elementales de los ciudadanos con la promoción de la innovación tecnológica en Europa.
La Ley de IA también establece una Oficina Europea de IA encargada de supervisar la implementación de la norma y garantizar el cumplimiento, con poder para imponer multas significativas a las empresas que violen sus disposiciones.
La burocracia favorece a los grandes (de Silicon Valley)
Sin embargo, su aprobación no ha estado exenta de controversia: ciertos sectores de la industria han expresado su temor sobre cómo las nuevas normas podrían ralentizar el desarrollo y la implementación de aplicaciones innovadoras de IA, temiendo un posible freno a la innovación.
Pero no sólo la industria: gobiernos como los de Francia, Alemania e Italia, en particular, defendieron 'abrir la mano' con las startups y pymes, con el fin de no obstaculizar su capacidad para competir con gigantes tecnológicos como Google y OpenAI.
También se pedía desde diversos sectores favorables al código abierto que los proyectos que se acogieran a este tipo de licencia estuvieran sometidos a una regulación diferenciada en cuanto a requisitos y pagos, pues temen que, a efectos prácticos, la burocracia a la que quieren someter a los proyectos de IA, pensada para grandes compañías, terminaría sacando del mercado europeo a proyectos más pequeños, llenos de desarrolladores voluntarios. Todo ello, en favor, de nuevo, de los gigantes ya establecidos en el mercado.
Imagen | Marcos Merino mediante IA
Ver todos los comentarios en https://www.genbeta.com
VER 1 Comentario