El modelo GPT-4 de OpenAI consume muchísima agua. Un nuevo estudio presentado por la Universidad de California indica que el modelo de IA, inteligencia artificial, GPT-4 de OpenAI consume hasta 3 botellas de agua para generar apenas 100 palabras.
Es decir, que una simple búsqueda que hagas en esta herramienta y que a veces se usan para cosas tan banales como que la IA nos dé ideas de qué cenar, está causando un grave daño a un planeta que en muchos lugares del mundo padece de sequía.
Si bien el chatbot impulsado por IA creó mucha expectación, varios son los puntos débiles que hacen que la revolución quede a medias: respuestas falsas o muy genéricas; falta de información sobre las fuentes originales de la información que provee; y uso excesivo de recursos esenciales como el agua.
También la infracción de los derechos de autor sigue siendo un problema importante (con diversas demandas al respecto) y la falta de transparencia interna de esta empresa que ha visto a la mayoría de sus creadores y líderes irse por no estar de acuerdo con las decisiones del CEO. También se sabe que la empresa ha amenazado a sus trabajadores para que no den información interna de la compañía.
Hay que recordar que Sam Altman reconoció en el pasado públicamente que GPT-4 "kind of sucks" que se puede traducir a que "apesta un poco" y veremos aquí por qué ha tirado piedras sobre uno de sus productos estrella.
Por qué apesta GPT-4
Primero vamos a recoger de nuevo aquellas polémicas palabras del CEO de OpenAI hace unos meses, en una conversación en un podcast explicaba que "creo que es una mierda, en relación con el punto al que tenemos que llegar y al que creo que llegaremos", dijo Altman. Y también que en el futuro vamos a recordar que las herramientas que tenemos ahora eran un asco.
Según Altman, la GPT-4 supuso un gran avance con respecto a la GPT-3 y considera que quienes usan GPT-4 se burlan de su predecesora, que en su momento parecía revolucionaria.
Exceso de consumo de recursos
Por un lado, el estudio presentado ha concluido que podemos consumir una botella de agua por correo electrónico y esto se traduce en grandes costes medioambientales ocultos del uso de chatbots de IA.
"Los chatbots utilizan una inmensa cantidad de energía para responder a las preguntas de los usuarios, y el simple hecho de mantener los servidores lo suficientemente fríos como para funcionar en los centros de datos supone un coste para el medio ambiente", afirma el estudio.
The Washington Post colaboró con investigadores de la Universidad de California explica que cada pregunta a estos sistemas de OpenAI fluye a través de un servidor que ejecuta miles de cálculos para determinar las mejores palabras a utilizar en una respuesta.
Al realizar estos cálculos, los servidores, normalmente ubicados en centros de datos, generan calor. A menudo, se utilizan sistemas de agua para refrigerar el equipo y mantenerlo en funcionamiento. El agua transporta el calor generado en los centros de datos a torres de refrigeración para ayudarlo a escapar del edificio.
Según los defensores del medio ambiente, los centros de datos suelen ser los que más agua consumen en las ciudades donde se ubican.
Imagen | Foto de D koi en Unsplash
Ver 41 comentarios