A Altman le preocupa la seguridad de la IA, pero no tanto hacerla 'open source'
En una reciente charla-coloquio entre Sam Altman, CEO de OpenAI, y Kevin Weil, director de producto de la compañía y antiguo responsable del éxito de Instagram, ambas figuras de la industria de la inteligencia artificial abordaron algunos de los temas más relevantes sobre el futuro de la misma...
...desde la definición del concepto de AGI (Inteligencia Artificial General) hasta el desarrollo de agentes autónomos, mostrándose ambos confiados en lo que nos deparará el año 2025. A continuación desglosamos los puntos clave de esta conversación.
2025: El año de los 'agentes autónomos'
Un tema recurrente en la conversación fue el papel de los agentes autónomos y su impacto en la sociedad y la tecnología. Según Altman, para 2025, los modelos como 'o1' serán los que finalmente logren que los agentes funcionen de manera efectiva. Estos agentes, explicó, tendrán la capacidad de realizar en pocas horas tareas que a los humanos les llevarían semanas o meses, revolucionando la productividad y el flujo de trabajo.
Aunque el desarrollo de agentes es inminente, Weil y Altman destacaron que la seguridad y la alineación siguen siendo los mayores obstáculos. Resolver estas barreras permitirá que los agentes no solo controlen sistemas, sino que lo hagan de manera eficiente y segura.
Además, uno de los retos actuales de la IA es determinar los límites de lo que puede hacer hoy y lo que aún está fuera de su alcance. Encontrar este "punto dulce" es clave para estar a la vanguardia cuando se liberen nuevos modelos.
Buscando aumentar la seguridad
Altman también resaltó que la clave para lograr que los agentes controlen sistemas informáticos completos está en garantizar su seguridad y 'alineación' [es decir, que se ajusten a los intereses humanos].
Para Altman, el enfoque conocido de 'implementación iterativa' (desarrollar y lanzar versiones progresivas de los sistemas de IA, evaluándolos y ajustándolos continuamente) es considerado su mejor método de seguridad.
Incluso aquellos peligros que puedan verse aún como 'ciencia ficción' deben tenerse en cuenta. Según Altman, aunque las proyecciones futuristas pueden parecer exageradas, es esencial preocuparse por estos escenarios para garantizar que los avances tecnológicos no pongan en riesgo a la humanidad.
La revolución del rendimiento de los modelos de IA
Otro aspecto fascinante de la conversación fue la idea de que los modelos de IA se están volviendo inteligentes a un ritmo cada vez mayor: Altman destacó que OpenAI ya sabe cómo llevar sus modelos al siguiente nivel y que se debe esperar una mejora acelerada en el rendimiento de estos sistemas en el corto plazo.
Una de las formas en las que OpenAI evalúa sus avances es mediante el uso interno o "dogfooding", en el que los empleados de la empresa utilizan los modelos de IA en su trabajo diario para medir su efectividad.
En este sentido, los agentes virtuales también son un área de interés creciente. OpenAI planea introducir "empleados virtuales", lo que representa un paso significativo hacia la automatización de tareas más complejas y la implementación de IA en el entorno laboral de manera más robusta.
El futuro de los modelos: contexto y tokens. En cuanto a las capacidades técnicas de los modelos de OpenAI, se mencionó que, antes de finalizar 2024, el modelo 'o1' soportará la funcionalidad de llamada a funciones, lo que permitirá una mayor interacción y capacidad en las tareas asignadas a los agentes. Además, Altman predijo que a lo largo de la próxima década se hará realidad el contexto de longitud infinita, una característica clave en el procesamiento de grandes volúmenes de información.
El reto de buscar algo difícil de definir
La Inteligencia Artificial General, o AGI, fue otro de los temas que dominó la conversación. Altman y Weil señalaron que, a medida que los sistemas de inteligencia artificial se acercan a niveles cada vez más complejos, la definición de AGI se vuelve cada vez más difusa.
"Estamos en una etapa en la que todo parece borroso", explicó Altman, refiriéndose a la dificultad de definir cuándo un sistema de IA ha alcanzado este nivel de capacidad. De hecho, cada vez que terminaban de desarrollar un sistema, se preguntaban: "¿Desde qué punto de vista esto no es un AGI?".
Uno de los objetivos principales de Altman para la AGI es aumentar la tasa de descubrimientos científicos, constituyendo una especie de "estrella pollar" capaz de guiar el desarrollo de estas tecnologías.
Altman también dejó claro que la misión de OpenAI es construir una AGI segura, y que tanto si la respuesta a esta búsqueda implica más I+D como si simplemente exige más capacidad de cómputo, estarán dispuestos a seguir cualquiera de esos caminos.
OpenAI y el Open Source
La postura de OpenAI sobre el código abierto también fue discutida durante la charla. Aunque Altman mostró interés en esta filosofía, afirmó que la empresa actualmente tiene "otras prioridades" que le impiden avanzar en este ámbito. Sin embargo, expresó esperanza en que OpenAI pueda "eventualmente" lanzar "algo" en código abierto.
En realidad, lo cierto es que ya tienen 'algo' en código abierto (Whisper)... y que ya ha dejado claro en el pasado que tardaremos mucho en ver un GPT-6 open source.
Imagen | Marcos Merino mediante IA
Ver todos los comentarios en https://www.genbeta.com
VER 0 Comentario