La Comisión Europea ha propuesto este miércoles nuevas normas destinadas a regular la inteligencia artificial en la Unión Europea, medidas que conocimos parcialmente por una filtración. Una legislación pionera que busca, dicen, "convertir a Europa en el centro mundial de una inteligencia artificial digna de confianza". La idea es que garantice la seguridad y los derechos fundamentales de la ciudadanía y las empresas.
Este es el primer marco jurídico sobre la IA que se lleva adelante en el mundo y no llega en solitario. Junto a él, la Comisión también busca regular maquinaria y robots y, a su vez, reforzar la adopción, inversión e innovación en materia de inteligencia artificial en los países miembros.
Uno de los puntos más interesantes de esta regulación de la inteligencia artificial es que se basa en los potenciales riesgos del uso de la tecnología y, por ende, como ha explicado la comisaria europea de Competencia, Margrethe Vestager, "intervendrán cuando sea estrictamente necesario, esto es, cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la Unión Europea".
El nuevo Reglamento sobre la IA establece cuatro niveles de riesgo y diversas obligaciones
La idea es que las nuevas normas planteadas para el conjunto de la Unión Europea se apliquen directamente y de la misma manera en todos los Estados, explican desde la Comisión Europea, "sobre la base de una definición de IA a prueba de futuro". Es decir, con vistas a que no se quede desactualizada con el avance de los años y/o de las tecnologías.
Y lo que es más importante: se basa en el riesgo. Concretamente, en cuatro niveles de riesgo. El más alto de todos ellos es el "riesgo inaceptable", el cual implicará la prohibición de los sistemas de IA que se consideren "una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las persona". Aquellos que, por ejemplo, manipulen el comportamiento humano para eludir la voluntad de las personas o sistemas de "puntuación social" gubernamentales.
El segundo nivel de riesgo es el de "alto riesgo", que abarca los sistemas de inteligencia artificial que se empleen en diferentes ámbitos sensibles: infraestructuras críticas, formación educativa o profesional, componentes de seguridad de los productos, empleo, gestión de trabajadores y acceso al trabajo por cuenta propia, servicios públicos y privados esenciales, aplicación de las leyes, gestión de la migración, el asilo y el control de las fronteras y administración de justicia y procesos democráticos.
Por la sensibilidad de estos entornos, antes de poder comercializarse una tecnología de IA catalogada, esta deberá contar obligatoriamente con sistemas adecuados de evaluación y mitigación de riesgos, alta calidad de los conjuntos de datos que alimentan el sistema, registro de la actividad para garantizar la trazabilidad de los resultados, documentación detallada, información clara y adecuada de cara a las personas usuarias, medidas apropiadas de supervisión humana para minimizar el riesgo, así como un alto nivel de solidez, seguridad y precisión.
En este grado de riesgo se ubican sobre todo los sistemas de identificación biométrica remota. Es decir, el reconocimiento facial, el cual llevaba tiempo en el punto de mira de la UE. En principio, dicen desde la Comisión Europea, "su uso en directo en espacios de acceso público con fines policiales está prohibido". Aunque habrá excepciones porque podrán utilizarse para buscar a menores desparecidos, prevenir una amenaza terrorista concreta e inminente o detectar, localizar, identificar o enjuiciar a un autor o sospechoso de un delito grave. Todos estos usos deberán ser autorizados judicialmente o por un organismo independiente con "límites adecuados en el tiempo, el alcance geográfico y las bases de datos buscadas".
Todo ello no contenta del todo a organizaciones como EDRi, organización que dice defender los derechos digitales europeos y que asegura que "la prohibición de la 'identificación biométrica remota' se aplica solo a las fuerzas del orden, tiene grandes excepciones y es limitada". Consideran que esta propuesta "no va lo suficientemente lejos" al no prohibir la vigilancia biométrica masiva. También desde otras organizaciones como Access Now se denuncian lagunas importantes y se pide la prohibición también para la vigilancia predictiva o el reconocimiento facial post-hoc.
En España, recientemente, más de 70 investigadores y académicos piden al Gobierno una moratoria en el uso del reconocimiento facial hasta su regulación. Recurrentemente ha suscitado críticas y dudas el planteamiento de su uso por parte de empresas, como Mercado o Renfe, así como de la Guardia Civil. Según la Secretaría de Estado de Digitalización e Inteligencia artificial, esta propuesta europea recoge la postura española.
Siguiendo con los niveles de riesgo, existe también el "riesgo limitado", que comprende sistemas que deberán tener ciertas obligaciones de transparencia como los robots conversacionales que deberán informar a los usuarios de que están interactuando con una máquina. En el último nivel, "riesgo mínimo o nulo", entraría "la inmensa mayoría de los sistemas de IA", el Reglamento de IA no interviene.
¿Y quiénes serán los policías? Pues según la propuesta de la Comisión, las autoridades nacionales de vigilancia del mercado podrían ser las que controlen nuevas normas. No obstante, también se plantea la creación de un Comité Europeo de Inteligencia Artificial que tendrá como misión facilitar la aplicación e impulsar la creación de normas en esta materia.
Actualizando el plan coordinado sobre la IA y la regulación sobre maquinaria y robots
El plan europeo coordinado sobre la IA publicado inicialmente en 2018, "facilitó una gran variedad de estrategias nacionales y fondos de la UE para asociaciones público-privadas y redes de investigación e innovación", según la Comisión Europea. Por eso, tres años después, recibe una "actualización exhaustiva" para proponer acciones que estén en consonancia con la Estrategia Europea sobre la IA, el Pacto Verde Europeo y los nuevos retos planteados por la pandemia.
La idea es que este plan ahora emplee la financiación asignada con cargo a los programas Europa Digital y Horizonte Europa, así como al Mecanismo de Recuperación y Resiliencia, que prevé un objetivo de gasto digital del 20 %, y a la Política de Cohesión. Con ello, se pretende crear las condiciones para que Europa sea competitiva a nivel mundial en la innovación, el desarrollo y el uso de estas tecnologías en todos los niveles.
Por último, la Comisión Europea también ha presentado un nuevo Reglamento sobre máquinas que, de nuevo, aseguran que busca garantizar "la seguridad de los usuarios y consumidores", al tiempo que fomentar la innovación. Es también una apuesta a punto de la anterior normativa y un complemento a la legislación sobre inteligencia artificial dado que su misión es garantizar la integración segura de los sistemas de IA en la maquinaria en general.
Este pionero marco jurídico sobre la IA, el primero mundial, y el resto de normas son propuestas de la Comisión y, como tal, deberán ser adoptadas por el Parlamento Europeo y los Estados miembros a través del procedimiento legislativo ordinario. Cuando este hecho se produzca, y de acuerdo con los plazos que se marquen, los reglamentos serán aplicables en el conjunto de la Unión Europea.