Cada año, la Fundación Sohn Conference organiza un concurso de ideas de inversión, y la idea ganadora del concurso se presenta en una conferencia que se celebra anualmente en EE. UU.. Pero no es lo único que se hace durante dicho evento. En la conferencia de hace un año, el CEO de Stripe (Patrick Collison) entabló una conversación/entrevista con su colega de OpenAI (Sam Altman) en la que hablaron largo y tendido sobre el futuro de la IA.
Empezaron hablando sobre economía (y sobre World Coin, el polémico proyecto 'cripto' de Altman). El propio Altman se mostró convencido de que la IA podría provocar un aumento masivo del crecimiento económico real al identificar las inversiones y los diseños más productivos para las empresas.
Pero desde su punto de vista, la IA puede tener impactos económicos mucho más relevantes y profundos: él mismo pone como ejemplo que una IA que pudiera asignar eficazmente fondos a la investigación del cáncer podría ahorrar miles de millones de dólares al tiempo que acelera los avances en la búsqueda de una cura.
Sobre ChatGPT (y otros proyectos de OpenAI)
¿Qué hay del impacto de ChatGPT y todo lo que está haciendo OpenAI sobre la industria de las búsquedas web? Altman lo resumía así:
"Los modelos de lenguaje van a cambiar en gran medida las búsquedas en Internet, pero no son una amenaza para las búsquedas. Y serían una amenaza para Google sólo si Google no hiciera nada al respecto… y obviamente Google no va a no hacer nada".
Recordemos que este vídeo se grabó el día antes de la presentación global de Bard en el evento Google I/O, un lanzamiento que antecedió al actual y más ambicioso Google Gemini.
Altman también aportaba dos datos relevantes:
¿Para qué tarea usan más a menudo ChatGPT los usuarios? El caso de uso más común del ChatGPT es el resumen de textos "para poder mantenerse al día con los mensajes de correo electrónico y de Slack".
Sobre los debates en torno a la seguridad de la IA
Altman cree que confiar únicamente en el aprendizaje por refuerzo para la IA no es una solución adecuada a largo plazo, y que lo crucial para conseguir la 'alineación' (término técnico para la coincidencia de intereses IA/humanos) es comprender el funcionamiento interno de los modelos:
"Ya sabes, poder decir exactamente 'aquí está el circuito', o el conjunto de neuronas artificiales, donde algo está ocurriendo, y ajustarlo de manera que se produzca un cambio sólido en el rendimiento del modelo".
"Creo que los materiales nucleares y los superordenadores de IA presentan algunas similitudes, y que es en este campo en el que podemos sacar más paralelismos e inspiración que de otros… pero también querría advertir a la gente acerca de apresurarse a sacar conclusiones de esto. Estoy pensando, concretamente, en [plantear] algo así como una OIEA para la inteligencia artificial".
Cree que, aunque hay que evitar la tentación de inspirarse demasiado en tecnologías previas (como la nuclear), instaurar una agencia reguladora mundial para los potentes sistemas de entrenamiento de IA es crucial para la seguridad:
"Pero, si mañana existiera, ¿qué sería lo primero que debería hacer?". La respuesta, en su opinión, pasa por exigir que los sistemas que superen un determinado umbral se sometan a auditorías y evaluaciones de seguridad antes de su lanzamiento. Meses después, la normativa europea se ajustaba precisamente a este principio.
En opinión de Altman, se necesita más trabajo técnico para garantizar la seguridad de la IA, en lugar de meras discusiones filosóficas en Twitter:
"La mayoría de las personas que dicen que están realmente preocupados por la seguridad de la IA parece que sólo se pasan el día en Twitter diciendo que están muy preocupados por la seguridad de la IA. Hay gente que está muy preocupada y que hace un gran trabajo técnico al respecto, pero necesitamos muchos más gente así. Lo que el mundo necesita no son más personas que escriban largas diatribas filosóficas en Twitter".
Altman y Collison también han abordado la teoría —sostenida por más gente en Silicon Valley— de que los investigadores chinos publican un gran número de artículos, pero su impacto por artículo es relativamente bajo, lo que hace sospechar que quizá no estén publicando los trabajos más importantes. "¿Crees que es probable que sea verdad?", pregunta Collison. "No confío en mis intuiciones en este tema… simplemente me siento confundido".
El empuje del código abierto
Ambos interlocutores estaban de acuerdo en destacar la mejora significativa y cada vez más veloz de los grandes modelos de lenguaje 'open source', aunque Altman sigue reservando a los modelos 'supergrandes' propietarios la tarea de generar nuevos avances en el campo de la IA.
"Una de las grandes sorpresas de este año, para mí, ha sido el progreso en modelos de código abierto, y este ritmo frenético en los últimos 60 días, o así. ¿Cómo de buenos crees que serán los modelos open source de aquí a un año?", pregunta Collison.
"Creo que vamos a estar en un mundo donde habrá modelos de código abierto muy capaces y la gente los usará para todo tipo de cosas, y el poder creativo de toda la comunidad nos va a impresionar a todos".
Ante la pregunta de que si para muchos 'casos prácticos del día a día' tal vez sea suficiente con un modelo de código abierto, Altman aseguró creer que "para muchas cosas económicamente valiosas, sí, un modelo pequeño de código abierto será suficiente".
Aunque, según él, los modelos abiertos permanecerán siempre un par de años por detrás de los propietarios.
Altman tuvo ha tenido palabras para Facebook, dado que la publicación del código de su modelo LLaMa (que ya va por su tercera versión) fue el encendido del interruptor del presente auge de modelos de lenguaje open source.
Según el CEO de OpenAI, la estrategia de Facebook en materia de IA "ha sido poco clara" pero confía en que, teniendo el competente equipo que tienen detrás de sus proyectos de IA, terminen adoptando "una estrategia más coherente".
Imagen | Basada en original de Techcrunch en Flickr
Ver 0 comentarios