Las instituciones de la Unión Europea se encuentran ahora mismo (y desde hace más de un año) debatiendo la aprobación del borrador de la Ley de Inteligencia Artificial con la que buscan regular el desarrollo de las IAs de propósito general, como respuesta a una creciente preocupación por los usos (y abusos) éticos de esta tecnología.
Sin embargo, tal como denuncia un informe del think-tank estadounidense Brookings Institution, el actual texto de la propuesta del Consejo de la UE podría tener consecuencias imprevistas para el avance de la IA. Concretamente, el de impedir el desarrollo de proyectos de inteligencia artificial de código abierto.
Y es que, según establece el texto del borrador, los desarrolladores de esta clase de IAs deben garantizar que su software sea preciso, así como transparente sobre sus riesgos y dotado de una documentación técnica clara.
Piénsatelo dos veces, desarrollador open source
Nada que suene fuera de lugar, hasta que recordamos que no todos los desarrollos de software son comerciales y privativos, y que el desarrollo de IAs de código abierto (cuya inclusión es explícita en este borrador) puede basarse en el lanzamiento de IAs imprecisas y poco documentadas, a la espera de que las aportaciones de la comunidad de desarrolladores permitan dar forma a un producto funcional.
Según los investigadores de Brookings, las exigencias de la UE obligará a los desarrolladores open source a pensárselo dos veces antes de hacer público el código de ningún proyecto de IA, ante la posibilidad de que cualquier uso 'impreciso' de los mismos pueda dar lugar a demandas con base en la futura Ley de IA, pues ésta les atribuiría responsabilidad legal.
Eso, por supuesto, daría lugar a entregar a las grandes empresas un oligopolio de facto sobre el desarrollo de la inteligencia artificial en Europa, lo que, además de dificultar la innovación tecnológica y concentrar el poder económico, "tendría un efecto escalofriante en el progreso académico y en la reproducibilidad de los resultados científicos", según ha declarado a Techcrunch el fundador del Instituto Allen de Inteligencia Artificial, Oren Etzioni.
Para él, los proyectos de código abierto no deberían estar sujetos a las mismas reglas que los de las empresas privadas:
"Siempre debe darse la opción a que el software libre pueda proporcionarse 'tal cual': considere el caso de un único estudiante que esté trabajando en una funcionalidad basada en IA; no puede permitirse cumplir con las regulaciones de la UE y puede verse obligados a no distribuir su software".
La IA de código abierto ya está mostrando sus ventajas frente al modelo de código cerrado
Actualmente, el potencial de la IA open source ha quedado más que claro gracias al ejemplo de Stable Diffusion: tras varios meses maravillándonos, gracias a DALL-E 2 y otros, con las posibles aplicaciones futuras de las inteligencias artificiales generadoras de imágenes, el (muy) reciente lanzamiento de su rival open source Stable Diffusion ha generado inmediatamente en 'boom' en los usos de la misma...
... permitiéndonos generar múltiples versiones derivadas de este modelo de IA, además de aplicarlo al uso cotidiano de las aplicaciones más populares de diseño gráfico gracias al uso de plugins... y eso por no mencionar el hecho de que, para muchos, Stable Diffusion es, sencillamente, una mejor opción para generar imágenes que DALL-E 2. Midjourney, su otro gran rival comercial, ya ha incorporado la tecnología de SD a su propio generador.
Imagen | Basada en original generada por DALL-E 2
Vía | The Register
Ver todos los comentarios en https://www.genbeta.com
VER 4 Comentarios