El organismo regulador chino CAC ha pedido supervisar un buen número de modelos de lenguaje para garantizar que se cumplen "los valores socialistas fundamentales"
La apuesta por tecnologías de inteligencia artificial generativa por parte de China es cada vez mayor. Recientemente conocíamos algunos de sus modelos de lenguaje más potentes, los cuales según las pruebas de SuperClue superaban a modelos como GPT-4 Turbo. El país domina además en cuanto a número de documentos científicos y patentes publicadas sobre IA mientras continúan sus esfuerzos por independizarse en cuanto al uso de tecnologías extranjeras. Prueba de ello es su superordenador construido a partir de componentes chinos enfocado a entrenar modelos de lenguaje.
A pesar del gran avance en las herramientas de IA, las restricciones del Gobierno en China pueden acabar frenando su eficacia. Esto no es ninguna sorpresa, ya que cualquier empresa, sea local u extranjera, debe alinearse con los valores y legislación de este gobierno, lo que ha provocado en muchas ocasiones que algunas empresas extranjeras abandonen sus operaciones allí debido a las limitaciones de su gobierno.
La IA en China y la censura de su gobierno
En una época en la que la IA está más avanzada que nunca, ahora las compañías especializadas en este sector en China deben afrontar una nueva supervisión por parte del gobierno Chino para “garantizar que sus modelos de lenguaje encarnan los valores socialistas fundamentales”, según fuentes del Financial Times.
Esta supervisión está siendo llevada a cabo por la CAC (Cyberspace Administration of China), que es básicamente el organismo regulador de Internet en China. El proceso se llevará a cabo tanto para las empresas más grandes de la industria, como ByteDance o Alibaba, hasta startups más pequeñas.
Los modelos de lenguaje serán probados por oficiales locales de la CAC para comprobar cómo responden sus herramientas a través de una serie de preguntas para interactuar con su IA. La gran mayoría de estas respuestas serán de temas especialmente sensibles en China y sobre el presidente Xi Jinping.
Según fuentes de FT, una compañía con sede en Hangzhou no pasó la primera ronda de preguntas por razones que se desconocen. Sin embargo, pasaron el test en una segunda prueba después de “meses de probar y ajustar”.
Los esfuerzos de la CAC ilustran cómo desde China han querido ponerse a la altura de Estados Unidos en cuanto a eficacia y precisión de sus modelos de lenguaje mientras vigilaban muy de cerca el desarrollo de esta tecnología para asegurarse de que los contenidos generados por IA cumplían con las estrictas políticas de censura.
Todas las herramientas de IA que se ofrecen en China deben cumplir una serie de obligaciones por parte del gobierno chino con el fin de no entablar conversaciones sobre temas delicados que comprometan la opinión y valores de su gobierno. En Genbeta probamos hace un tiempo Kimi AI, una de las alternativas a ChatGPT más populares del país, haciéndole preguntas comprometidas sobre el gobierno chino. En nuestras carnes vivimos que, efectivamente, estas herramientas no pueden ofrecer detalles sobre temas políticos o sucesos históricos comprometidos.
La vigilancia constante y la censura son factores muy comunes en la sociedad china. En el caso de los modelos de lenguaje, se aplican filtros muy estrictos y configuraciones para eliminar “información problemática”, según afirmaban fuentes del medio. No obstante, en las pruebas de la CAC, los modelos de lenguaje tienen un número limitado de preguntas que pueden rechazar responder, por ello, también deben ofrecer respuestas políticamente correctas ante preguntas delicadas.
Un experto en IA asegura a FT que es muy difícil que un modelo de lenguaje evite generar todo tipo de contenido dañino, por lo que una de las soluciones pasa por aplicar capas adicionales en el sistema para detectar y procesar en tiempo real que no se muestra ese contenido.
Imagen de portada | Generada por IA con Copilot Designer
Ver todos los comentarios en https://www.genbeta.com
VER 2 Comentarios