Todas las grandes potencias están de acuerdo en que la IA no controle el botón rojo nuclear. Todas... menos una

Una... que 'casualmente' es la lidera la carrera de la IA militar

La tecnología avanza a pasos agigantados: hace ya mucho tiempo que la inteligencia artificial dejó de ser un asunto a plantear únicamente en debates sobre fake news y plagios de deberes para convertirse en un tema crucial en diversas áreas, incluyendo el ámbito militar... como lo demuestra la reciente Cumbre sobre Inteligencia Artificial Responsable en el Dominio Militar (REAIM), celebrada en Seúl esta semana.

El uso de drones equipados con IA en el conflicto entre Rusia y Ucrania fue un ejemplo concreto presentado durante la cumbre. Estos dispositivos han demostrado ser altamente efectivos en el campo de batalla, con una mínima supervisión humana, lo que plantea riesgos de fallos algorítmicos.

A final de este evento, más de 60 países, incluidos Estados Unidos y varios miembros de la OTAN, firmaron un acuerdo que establece directrices para el uso responsable de esta tecnología en el campo de batalla.

Sin embargo, China, una potencia clave, decidió no suscribir el acuerdo, lo que resalta las profundas divisiones geopolíticas sobre el control de la IA militar.

Una guerra "centrada en el ser humano"

Este nuevo acuerdo ni siquiera es vinculante, pero sus firmantes afirman que supone un avance significativo al delinear los riesgos asociados con el uso de la IA en la guerra y la importancia de mantener un control humano estricto sobre el uso de la fuerza, especialmente en decisiones relacionadas con armas de destrucción masiva, como las nucleares.

El acuerdo adoptado por la mayoría de los países tiene como objetivo garantizar que la IA militar se desarrolle y use de manera "ética y centrada en el ser humano", por chocante que pueda resultar este lenguaje aplicado a tal contexto.

China rechaza el consenso internacional

Una de las sorpresas más notables de la cumbre fue la negativa de China a firmar el acuerdo. Aunque el gigante asiático había respaldado un acuerdo anterior, menos concreto, en la cumbre de 2023, en esta ocasión decidió no sumarse a la iniciativa.

Este hecho pone 'blanco sobre negro' las diferencias estratégicas que existen entre las grandes potencias en cuanto al uso de la IA en el ámbito militar: China está decidida a consolidar su liderazgo en el desarrollo de tecnologías avanzadas, incluidas la IA y el aprendizaje automático, que podrían revolucionar la guerra.

De hecho, un informe del Instituto Australiano de Política Estratégica, publicado en agosto, coloca a China a la vanguardia de la investigación en IA, superando a otros países en un 90% de las 64 categorías analizadas. Este dominio tecnológico podría ser una de las razones detrás de su negativa a firmar acuerdos que podrían limitar su desarrollo en este campo.

Nada que no hayamos visto ya ocurrir entre empresas de IA no militar, por otro lado.

Retos y próximos objetivos

Uno de los principales temas discutidos en la cumbre fue la dificultad de imponer una regulación efectiva a la IA militar, pues la tecnología avanza mucho más rápido que los procesos gubernamentales de regulación.

Por otro lado, los países involucrados en conflictos (y las superpotencias tienden a estarlo continuamente, sea de forma directa o indirecta) tienen pocos incentivos para frenar el desarrollo de estas tecnologías, lo que complica aún más la posibilidad de alcanzar un consenso global sobre la regulación de la IA militar.

El próximo objetivo es llevar el tema al debate en la Asamblea General de la ONU en octubre de 2024, donde se espera que los representantes de diferentes países continúen discutiendo las implicaciones de la IA en el ámbito militar. El camino hacia un acuerdo vinculante será, sin embargo, largo y complicado.

Imagen | Marcos Merino mediante IA

En Xataka | El presidente de Microsoft considera "imparables" a los robots asesinos y pide frenarlos con una nueva Convención de Ginebra

Ver todos los comentarios en https://www.genbeta.com

VER 2 Comentarios

Portada de Genbeta