Hace ahora casi un año, Sam Altman estuvo en nuestro país, como parte de la gira mundial que llevó a recorrer una veintena de países en pocos días. Aquí, tras visitar la Moncloa, el CEO de OpenAI dio una conferencia ante medio millar de personas en una charla realizada en la IE University. Durante la misma, se dirigió varias veces al público para preguntar su opinión sobre los temas a debate.
¿Creía el público que, en su momento, habrá que regular GPT 5 y 6? "¡Sí!". Él también lo creía. ¿Y convertirlos en modelos de código abierto? De nuevo, "¡Sí!", clamó el público. Su respuesta les dejó fríos:
"Pues ahí no estamos de acuerdo".
Unos días después, su gira mundial lo llevaba a Munich (Alemania), donde protagonizó una charla muy similar en la TUM (Technische Universität München). Y, de nuevo, volvió a dirigirse al público para saber su opinión sobre el lanzamiento de futuros ChatGPT como software de código abierto:
"Tengo curiosidad, […] ¿a cuántos de vosotros os gustaría que abriéramos el código fuente de GPT-6 el mismo día que terminemos de entrenarlo?".
Cuando la mayoría de la sala levantó las manos, su respuesta fue similar, aunque teñida de unas gotas de ironía:
"Oh, guau… bueno, pues no vamos a hacerlo. Pero es interesante saberlo".
Sin embargo, esta vez profundizó un poco más en su respuesta: frente a la disyuntiva entre 'abierto' y 'cerrado', Altman apuesta por terminar abriendo el código de sus modelos de lenguaje "unos años más tarde" de su lanzamiento, cuando "hayamos tenido tiempo de descubrir qué necesitamos para mitigar sus problemas de seguridad".
CloseAI
Las declaraciones de Altman recibieron al poco tiempo respuestas críticas por parte de primeros espadas de la IA como Yann LeCun, el Jefe Científico de IA en Meta, responsable de la creación de LLaMa, base sobre la que se han desarrollado la mayoría de los modelos de lenguaje abiertos en los últimos meses.
Según LeCun, "claro que todo el mundo quiere que los modelos básicos sean de código abierto, a excepción de unas pocas personas en Silicon Valley, un puñado de catastrofistas de la IA y cualquiera a quien los anteriores consigan asustar dentro de los gobiernos".
Jack Dorsey, fundador de Twitter, también ha criticado el posicionamiento de Altman, pero ha sido bastante más parco en palabras:
Recordemos que OpenAI fue fundada por Elon Musk y Sam Altman, entre otros, precisamente con el objetivo de crear IA de código abierto, un objetivo que quedó olvidado después de que los desencuentros entre los fundadores generasen la salida de la organización de Elon Musk y la consagración de Altman como principal líder de la misma.
Y decimos 'organización' y no 'compañía' porque el cambio de OpenAI de su faceta 'open' tuvo lugar al mismo tiempo que se reconvertía de entidad sin ánimo de lucro a empresa. Así, GPT-1 y GPT-2 nacieron como código abierto, pero la información que ha dado OpenAI sobre las iteraciones de GPT que usa ChatGPT (3.5 y 4) es escasa.
De hecho, en un informe presentado paralelamente al lanzamiento de GPT-4, investigadores de OpenAI afirmaron:
"Dado tanto el panorama competitivo como las implicaciones de seguridad, este informe no contiene más detalles sobre la arquitectura (incluyendo el tamaño del modelo), hardware, cómputo de capacitación, desarrollo de los datasets, método de entrenamiento, etc.".
Pese a todo, OpenAI ha seguido desarrollando algunos proyectos open source relevantes, como su IA de transcripción de audio a texto Whisper. De DALL-E 2, sin embargo, no se ha mencionado la posibilidad de que se libere en ningún momento como open source, pese a que DALL-E 1 sí lo fue (gracias a eso existen proyectos como Craiyon, antigua DALL-E Mini).
Imagen | Creada por Marcos Merino mediante IA
En Genbeta | El open source, un elemento clave en la explosión de inteligencia artificial que está ocurriendo ante nuestros ojos
Ver 5 comentarios