El mundo de la inteligencia artificial ha sido testigo en estos días de una compleja trama en torno a OpenAI y a su ahora retornado CEO, Sam Altman. Aunque ya hemos analizado las tensiones y facciones internas que hicieron posible dicho enfrentamiento, la agencia Reuters ha desvelado hoy otro posible (y muy reciente) punto de fricción entre la junta y Sam Altman.
El conflicto habría surgido después de que algunos investigadores de OpenAI advirtieran a la junta acerca de un avance en el desarrollo de la IA en el que habrían visto potencial para amenazar a la Humanidad: el enigmático proyecto conocido como "Q*".
Aunque no se han revelado detalles específicos sobre los riesgos mencionados en la carta, este evento resultó ser uno de los factores clave que condujeron al breve pero sonado exilio de cuatro días de Sam Altman.
Q* y el Q-Learning
"Q*" —pronunciado como "Q-Star"— ha sido considerado por algunos dentro de OpenAI como un paso significativo hacia la consecución de la inteligencia artificial general (AGI), que se define como sistemas autónomos capaces de superar a los humanos en la mayoría de las tareas económicamente valiosas.
El proyecto Q*, concretamente, se ha destacado por su capacidad para resolver complejos problemas matemáticos. Hasta ahora, la IA generativa de modelos como GPT ha demostrado sus habilidades en la escritura y la traducción de lenguaje, pero la resolución de problemas matemáticos implica un nivel de razonamiento mucho más avanzado.
De hecho, GPT 4.0 ha tenido que recurrir a la integración con la plataforma Wolfram|Alpha para poder realizar cálculos fiables.
Q* se basa en los principios del aprendizaje por refuerzo y, en particular, en el concepto de 'Q-learning', una clase de algoritmo que se centra en comprender el valor de una acción en un estado específico para poder definir la mejor acción a realizar, y así maximizar la recompensa acumulativa a lo largo del tiempo.
Un aspecto clave del proceso de 'toma de decisiones' basado en el Q-learning es el equilibrio entre 'exploración' (probar nuevas acciones) y 'explotación' (utilizar información conocida).
Los peligros
Pero, tras las primeras pruebas del modelo en funcionamiento, en las semanas previas al despido de Altman, surgieron inquietudes sobre los riesgos asociados a la aceleración de los avances en este campo, incluso entre los responsables del propio proyecto…
…entre los que se encuentra Ilya Sutskever, el científico jefe de OpenAI con un papel clave en el despido de Altman… e, incomprensiblemente, también uno de los centenares de empleados de la compañía que terminó pidiendo públicamente su retorno.
La misteriosa carta que los investigadores dirigieron a la ahora destituida junta de OpenAI puede convertirse en las próximas semanas en un tema de debate central a la hora de plantear cómo articular el equilibrio entre el avance tecnológico y la responsabilidad.
Cabe recordar la polémica que generó a comienzos de este año la carta abierta de Elon Musk y otros expertos del campo de la IA en el que se pedía pausar los 'grandes experimentos de IA':
"La humanidad puede disfrutar de un futuro floreciente gracias a la IA. Después de haber logrado crear potentes sistemas de inteligencia artificial, ahora podemos disfrutar de un 'verano de la IA' […] no nos apresuremos sin estar preparados para un otoño.
[…] Los sistemas de IA más potentes deben desarrollarse sólo una vez que confiemos en que sus efectos serán positivos y que sus riesgos serán manejables".
Imagen | Marcos Merino mediante IA
En Genbeta | La marca comercial 'GPT-5' ya está en proceso de registro por OpenAI. Esto es lo que sabemos hasta ahora
Ver 6 comentarios