El cofundador de OpenAI anuncia una nueva compañía de IA con una idea muy clara: crear una “superinteligencia segura”

Su nombre: Safe Superintelligence, una startup cuyo objetivo será producir una nueva IA que supere las capacidades humanas de forma segura

Ps Plantilla Portadas Xtk 8
2 comentarios Facebook Twitter Flipboard E-mail

Hace solo un mes se dio una de esas noticias que sacuden el sector con fuerza. Ilya Sutskever, cofundador de OpenAI, anunciaba su marcha de la compañía sobre la que parece girar todo en torno a la inteligencia artificial. Entonces se dijo que la batalla de poderes entre el propio Sutskever y el director ejecutivo, Sam Altman, se había cobrado un claro ganador y un vencido. La respuesta del primero no se ha hecho esperar.

Safe Superintelligence (SSI) Inc. Ese es el nombre elegido para la nueva startup que tiene todas las papeletas para rivalizar en el mismo terreno que OpenAI. Sutskever, posiblemente uno de los investigadores de IA más respetados, lo anunció hace unas horas en un comunicado como "el primer laboratorio SSI del mundo, con un objetivo y un producto: una superinteligencia segura".

Un vistazo a…
ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS

Un trío de talentos e inversión. Junto a Sutskever, la nueva compañía tendrá como cofundadores el ex empleado de OpenAI Daniel Levy y el inversionista y empresario de IA Daniel Gross, quien trabajó como socio en Y Combinator, la incubadora de nuevas empresas de Silicon Valley que solía dirigir Altman. Gross, además, tiene participaciones en empresas como GitHub e Instacart, y en empresas de IA como Perplexity.ai, Character.ai y CoreWeave.

Manifiesto. Los tres talentos han expresado también un primer esbozo de la máxima que se llevará en las oficinas de la nueva startup. Tras el slogan de “una superinteligencia segura”, se buscará un tipo de inteligencia artificial que, tal y como explicaron, podría reemplazar las capacidades cognitivas humanas, el “único y principal enfoque” de la empresa. También hicieron incapié en que no estaría obstaculizada por las demandas de ingresos de los inversores.

OpenAI

Sutskever y el resto de cofundadores expresaron en el comunicado que el "enfoque singular de SSI significa que no hay distracciones por gastos generales de gestión o ciclos de productos, y nuestro modelo de negocio significa que la seguridad, la protección y el progreso están todos aislados de las presiones comerciales a corto plazo". El comunicado añade que la empresa tendrá su sede tanto en Palo Alto como en Tel Aviv.

La salida de OpenAi, una oportunidad. Como decíamos al comienzo, el anuncio viene precedido de la renuncia de Sutskever de OpenAI. Después del famoso y fallido golpe (Altman acabó regresando a una nueva junta sin Sutskever), éste último permaneció en la empresa unos meses pero se marchó en mayo. Cuando renunció, dijo que estaba "emocionado por lo que viene después: un proyecto que es muy significativo para mí personalmente y sobre el cual compartiré detalles a su debido tiempo".

Sutskever desempeñó un papel clave en el liderazgo inicial de OpenAI con el por entonces naciente campo de la IA generativa: el desarrollo de un software que puede generarnos respuestas a cualquier consulta. Además, ayudó a crear lo que se denominó como un "equipo de Superalineación" dentro de OpenAI que tenía como objetivo garantizar el futuro de la IA.

Una inteligencia segura. El fundamento, entonces, estaba centrado en la idea de que las nuevas tecnologías no harían daño. Al igual que otros en el campo, le preocupaba cada vez más que la IA pudiera volverse peligrosa o, en el peor de los casos, que incluso pudiera destruir a la humanidad. 

Con Safe Superintelligence, al menos sobre el papel, parece que trata de seguir la misma senda: una máquina que sea más inteligente que los humanos, pero de forma segura. Un reto mayúsculo.

Imagen | OpenAI, Xataka con Midjourney

En Genbeta | OpenAI ya lideraba la carrera de la IA. El acuerdo con Apple les corona definitivamente

En Genbeta | La inteligencia artificial es una caja negra cuyo interior no puede ver ni quien la crea. OpenAI se ha propuesto arreglar eso

Inicio