Lo de las cartas y manifiestos de representantes de Silicon Valley posicionándose sobre los peligros y medidas a adoptar en torno a la inteligencia artificial es un tema apasionante. Tan pronto como unos sacan una carta, otro grupo de CEOs y expertos se unen para quitarle hierro al asunto, esperan unas semanas… y luego sacan su propio posicionamiento público… no tan diferente del anterior.
Hace una semana, sin ir más lejos, la entidad sin ánimo de lucro Center for AI Safety publicó su "Comunicado sobre el riesgo de la IA" de sólo 22 palabras (en inglés), que traducimos así:
"Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear".
Entre los firmantes de tan breve mensaje encontrábamos a CEOs de varias de las compañías líderes en IA, entre ellos el mismísimo Sam Altman, CEO de OpenAI, al que muchos consideraron receptor de las críticas de la carta (con similar objetivo a esta, aunque más extensa) publicada hace semanas por Musk.
Pero la entidad impulsora (que define su misión como la de "reducir los riesgos a escala social asociados a la IA") parece haber decidido que la concisión no entraba en conflicto con profundizar un poco más en sus propuestas.
Así, acaban de presentar un nuevo documento, más extenso, de 'propuestas políticas existentes dirigidas a los daños presentes y futuros'. "El objetivo de este documento de una página es describir tres propuestas que, en nuestra opinión, fomentan la seguridad de la IA. Esta lista no es exhaustiva".
I. Responsabilidad legal por los daños causados por la IA
El primer tema abordado en el texto es la necesidad de establecer marcos de responsabilidad legal mejorados para los daños causados por los sistemas de IA. Se menciona que el AI Now Institute argumenta que permitir a los desarrolladores de IA de propósito general (GPAI) eludir la responsabilidad mediante exenciones legales estándar sería un enfoque equivocado…
…pues crearía una laguna peligrosa que favorecería a grandes empresas con muchos recursos, para colocar toda la responsabilidad en 'actores posteriores' que carecen de los recursos, acceso y capacidad para mitigar todos los riesgos.
II. Un mayor escrutinio regulatorio
El segundo tema destacado se centra en la necesidad de un mayor escrutinio regulatorio dirigido al desarrollo de sistemas de IA, y que abarque todo el ciclo de vida del producto, no solo la capa de aplicación: las empresas que desarrollan estos modelos deben ser responsables de los datos y las decisiones de diseño que toman.
Según el documento, la transparencia y las regulaciones dirigidas a los datos de entrenamiento pueden ayudar a combatir el sesgo algorítmico y evitar que las empresas obtengan beneficios de materiales con derechos de autor sin compensar a sus creadores.
III. Supervisión humana de los sistemas automatizados
El tercer tema destacado en el documento es la importancia de la supervisión humana en la implementación de sistemas de IA de alto riesgo. La supervisión humana puede ayudar a mitigar posibles preocupaciones relativas tanto a sesgos y a la propagación de información falsa como a la detección (y desactivación a tiempo) de sistemas de IA "peligrosos".
Se hace referencia expresa a la propuesta normativa de la Unión Europea, valorando positivamente el énfasis que pone en la necesidad de que los seres humanos puedan intervenir y anular una decisión o recomendación que pueda causar daño potencial.
En resumen…
Otro intento más de Altman y cía de adelantarse y 'regular antes de que les regulen', indicando a los legisladores la mejor manera en que pueden atarle las manos a la industria. Ya hablamos en la crónica que hicimos de la intervención de Altman ante el Senado estadounidense acerca de los problemas que tiene esta potencial regulación al dictado. Dicho eso, 'el diablo está en los detalles', y la brevedad del documento no permite apreciarlos por ahora.
En Genbeta |
Ver todos los comentarios en https://www.genbeta.com
VER 2 Comentarios