Todos sabemos que cualquier mensaje que enviamos a través de una aplicación de mensajería está generando un alto impacto en el medio ambiente porque la nube donde guardan toda nuestra información consume muchísima energía.
Desde la llegada de la inteligencia artificial generativa a manos de todo el mundo y en masa (ChatGPT fue la pionera y la han seguido la de varias empresas), las empresas tienen todavía más datos que almacenar porque usamos masivamente estas tecnologías. Hace unos días veíamos cómo la IA no solo consume muchísima energía y malgasta agua, sino que también está creando mucha basura electrónica.
El ingeniero jefe de inteligencia artificial generativa de Meta, Sergey Edunov, tuvo que hablar de este respecto y su respuesta fue sorprendente. Su respuesta: "solo hacen falta dos reactores nucleares" para cubrir la demanda. No es la primera vez que alguien de su sector habla de la creación de una central nuclear para hacer frente a toda esta carga energética de la inteligencia artificial: Google, Amazon y Microsoft, también ven ahí la solución.
Durante una sesión en el Foro de Trabajadores Digitales que se celebró el pasado año en Silicon Valley, dijo que dos plantas eléctricas parecerían ser suficientes para alimentar las necesidades de la humanidad por un año, y que esto parecía ser aceptable.
Las preocupaciones que existen para hacer frente a toda la energía que consume el uso masivo de herramientas IA pueden solucionarse: él afirmó que "definitivamente podemos resolver este problema". A pesar de su optimismo de hace un año, recientemente Meta se ha encontrado un enorme problema para seguir con su gran plan: la naturaleza y las abejas.
La preocupación de la IA supercontaminante
El asunto de cuánto contamina la inteligencia artificial es objeto de estudio y de preocupación desde que ChatGPT irrumpiera en el mundo hace un año con su revolución.
Como publicaba calcalistech hace un tiempo "esta nueva carrera tecnológica tiene un alto precio oculto, que puede perjudicar los intentos internacionales de frenar la crisis climática, en esta coyuntura tan crítica".
Al igual que la preocupación que había con las criptomonedas y su minado, el uso de la IA "requiere una enorme potencia computacional, que va acompañada de un daño ambiental extraordinario". Según el informe de PitchBook, para 2025, el 3,2% de todas las emisiones de carbono del mundo provendrán de granjas de servidores de IA y añadía que "su costo ambiental no hace más que crecer a medida que la industria crece de una manera que prioriza la expansión en lugar de la eficiencia".
Como recordaba Xataka, Meta no es la primera empresa que vincula energía nuclear con inteligencia artificial. Microsoft también desveló sus planes de desarrollar reactores de fisión nuclear para "para alimentar los centros de datos en los que residen Microsoft Cloud y su IA".
La firma de Redmond también ha invertido en el sector comprando energía de fusión a Helion Energy, startup liderada por Sam Altman. Este hombre, no nos olvidemos, es el líder de OpenAI, la empresa que tiene en su poder grandes herramientas de inteligencia artificial.
Aclaraciones de Edunov
Cabe decir que después de la sesión y estas declaraciones públicas, Edunov aclaró a VentureBeat que sus observaciones se refería a la potencia necesaria para la computación de IA adicional de la nueva afluencia de Nvidias H100, que están diseñados especialmente para manejar aplicaciones de IA y son por lo tanto los más notables.
Recuerda este medio que además de los H100, hay modelos más antiguos de GPU de Nvidia, así como CPUs AMD e Intel, así como aceleradores de IA de uso especial que hacen inferencia para IA.)
Edunov dijo de todos modos que hay dos aspectos a tener en cuenta cuando hablamos de uso de energía: se necesita para abordar la inferencia y para el entrenamiento. Su primera respuesta abordó la inferencia, donde la mayoría de los procesos se producirán a medida que las organizaciones desplieguen aplicaciones de IA.
Explicó cómo hizo su cálculo simple para el lado de la inferencia: dijo que Nvidia, el proveedor dominante de procesadores para IA, distribuiría entre un millón y dos millones de sus GPUs H100. Si todos esos GPUS se utilizaron para generar "tokens", dijo que suma alrededor de 100.000 tokens por persona en el planeta por día.
Entrenar LLMs (grandes modelos de lenguaje) es un reto diferente, dijo Edunov. La principal limitación es obtener datos suficientes para entrenarlos. Dijo que se especuló ampliamente que GPT4 fue entrenado en todo internet. Aquí hizo algunas suposiciones más simples. Todo internet está disponible públicamente y afirma que toda esa información, se puede limpiar y desduplicar para que sean menos a la hora de darles uso.
También explicó que la energía no es tanta como parece a primera vista porque "si te centras en la información de calidad, la cantidad será aún menor. La cantidad de conocimiento que la humanidad creó a lo largo de los siglos no es tan grande".
Imagen | Foto de Nicolas HIPPERT en Unsplash
En Genbeta| Cuidado con dónde compras la etiqueta medioambiental de tu coche: la DGT sólo recomienda éstas
Ver 1 comentarios