Elon Musk invierte más de 2.000 millones de euros para crear "el sistema de IA más potente del mundo": así quiere superar a ChatGPT

GROK-3 llegaría en diciembre y ya está siendo entrenado en un sistema con unas 100.000 tarjetas gráficas H100 de Nvidia

Grok
2 comentarios Facebook Twitter Flipboard E-mail

Cuando uno tiene las posibilidades económicas de Elon Musk y tantos proyectos en marcha, no debería sorprender el hecho de que también tenga a su alcance las mejores herramientas para poner en funcionamiento sus proyectos. Una de ellas es ‘Colossus’, un sistema para entrenar modelos de lenguaje de inteligencia artificial. Según el magnate, se trata del sistema más potente del mundo para dicho trabajo.

Tal y como confirmaba hace unos días a través de una publicación en X, su sistema se ha completado en unos 122 días y consta de unas 100.000 tarjetas gráficas H100 de Nvidia. La intención con este sistema es entrenar a GROK, el modelo de lenguaje que da vida a la herramienta xAI.

El sistema para entrenar a la IA de X es muy potente, pero suscita preocupaciones

Musk Haz clic en la imagen para ir a la publicación

Si bien el sistema es un prodigio con dichas cifras, Musk espera duplicar su potencia en tan solo unos meses. Para ello añadirá otros 50.000 chips H200 de Nvidia, lo que permiten duplicar aproximadamente el rendimiento de aceleración de IA de una GPU H100.

No se ha detallado oficialmente cuánto ha costado poner en marcha este proyecto, aunque desde luego no ha salido barato. Los chips H100 rondan entre 20.000 y 90.000 dólares cada uno, pero parece que Musk ha conseguido una buena oferta para obtener un pack con 100.000 de estas unidades de una tirada.

Calculando solamente el precio de lo que cuestan estos chips y tirando muy a lo bajo, Musk habría gastado, como poco, unos 2.000 millones de dólares para construir “el sistema de entrenamiento de IA más potente del mundo”, según sus propias palabras. Todo eso sin contar los 50.000 nuevos chips H200 de Nvidia y todos los costes de infraestructura, centros de datos, equipo y demás.

Hace tan solo unas semanas GROK-2 se lanzó como exclusiva para miembros del plan Premium de X. Para entrenar a este modelo se utilizaron 15.000 gráficas H100. Ya en algunos benchmarks, GROK-2 se sitúa en segundo lugar por debajo de GPT-4o. Para GROK-3, la cosa cambiaría completamente, ya que se está utilizando este nuevo sistema para su entrenamiento, por lo que no nos sorprendería si al cabo de unos meses acaba siendo una de las inteligencias artificiales más capaces.

En unas recientes declaraciones, Musk aseguró que GROK-3 llegaría para diciembre. Cabe destacar que su nuevo clúster ‘Colossus’ no se ha construido sin que haya consecuencias directas. Y es que el sistema, situado en Memphis, Tennessee, consumirá 150 MW de potencia y ya se le han asignado casi cuatro millones de litros de agua diarios para refrigerar el sistema. El gran impacto medioambiental que generan los sistemas de IA se suma a la larga lista de preocupaciones en torno a este tipo de tecnologías.

Imagen de portada | Xataka

En Genbeta | Una IA fue nombrada líder de una empresa y como resultado creó un software en 7 minutos por un euro

Inicio