La opacidad con la que OpenAI desarrolla sus tecnologías, hace que sean de poca confianza, de acuerdo con expertos de Oxford
De acuerdo con académicos de la Universidad de Oxford, existe un gran riesgo al no saber qué está construyendo OpenAI en la nube y es que, advierten, la empresa creadora de grandes tecnologías como ChatGPT o GPT-4 está ocultando detalles críticos sobre confiabilidad.
Uno de los acontecimientos fundamentales en inteligencia artificial (IA) en 2023 fue la decisión de OpenAI, el creador de ChatGPT, de no revelar casi ninguna información sobre su último modelo de lenguaje grande (LLM), GPT-4, cuando la compañía presentó el programa en Marzo.
Según la información que comparte ZDnet de este grupo de académicos, "ese repentino giro hacia el secreto se está convirtiendo en una cuestión ética importante para la industria tecnológica porque nadie sabe, fuera de OpenAI y su socio Microsoft, qué está sucediendo en la caja negra de su nube informática", como han dicho Emanuele La Malfa de la Universidad de Oxford y colaboradores del Instituto Alan Turing y la Universidad de Leeds.
"Ninguna empresa puede confiar" en estos modelos cerrados
Esta advertencia no es nueva. Por ejemplo, Emad Mostaque, director ejecutivo de la startup de IA generativa Stability.ai, que produce herramientas como el generador de imágenes Stable Diffusion, ha dicho que ninguna empresa puede confiar en programas de código cerrado como GPT-4.
"Los modelos abiertos serán esenciales para los datos privados", dijo Mostaque durante una pequeña reunión en mayo. "Es necesario saber todo lo que hay dentro; estos modelos son muy poderosos".
La Malfa y su equipo revisan la literatura sobre los distintos modelos de lenguaje e identifican cómo la ofuscación impide una auditoría de los programas según cuatro factores críticos: accesibilidad, replicabilidad, comparabilidad y confiabilidad.
Los autores señalan que estas preocupaciones son una más dentro de la ética de la IA: "Estas cuestiones son específicas del paradigma LMaaS y distintas de las preocupaciones preexistentes relacionadas con los modelos de lenguaje".
Imagen | Foto de Edwin Hooper en Unsplash
Ver todos los comentarios en https://www.genbeta.com
VER 0 Comentario