La red eléctrica se está resintiendo, y no por los coches eléctricos: por la enorme demanda de inteligencia artificial

  • La inferencia de IA consume 33 veces más energía que las máquinas que ejecutan un algoritmo tradicional

  • La demanda de electricidad de los centros de datos se sextuplicará en los próximos 10 años

Un centro de datos de Microsoft
41 comentarios Facebook Twitter Flipboard E-mail

Cuando enviamos una petición a una inteligencia artificial como ChatGPT, los servidores de un centro de datos computan la respuesta. Hasta aquí, el proceso es similar a cualquier servicio en la nube, pero los modelos de IA generativa, que han sido entrenados para predecir las respuestas, utilizan 33 veces más energía que las máquinas que ejecutan un algoritmo tradicional para realizar tareas específicas.

"Es tremendamente ineficiente desde una perspectiva computacional", dijo a BBC News Sasha Luccioni, investigadora de Hugging Face.

La advertencia de los eticistas de la IA

Un estudio prepublicado por Luccioni y otros autores advierte del alto coste ambiental de los grandes modelos de IA, tanto por la cantidad de energía que demandan como por las toneladas de carbono que emiten.

Cuando empresas como Meta, OpenAI y Google entrenan sus grandes modelos de lenguaje (Llama 3, GPT-4o, Gemini 1.5 Ultra), ponen a funcionar cientos de miles de tarjetas gráficas o TPUs que consumen enormes cantidades de electricidad, especialmente a medida que crecen en tamaño (de millones a cientos de miles de millones de parámetros).

1.000 teravatios-hora en centros de datos

Sin embargo, esta es solo una parte de la historia. La IA generativa es cada vez más popular, lo que significa que millones de personas hacen consultas a cada instante que ponen a funcionar la maquinaria de la inferencia: el proceso por el que los modelos de aprendizaje automático realizan predicciones o generalizaciones a partir de cualquier consulta.

Este proceso es igualmente costoso porque genera contenido desde cero en los centros de datos de todo el mundo. Centros de datos que utilizan cada vez más electricidad: de 460 TWh en 2022 a más de 1.000 TWh proyectados para 2026; aproximadamente el consumo de electricidad de Japón, que tiene una población de 125 millones de personas.

En National Grid, el operador de la red eléctrica de Reino Unido, están preocupados. Calculan que la demanda de electricidad de los centros de datos se sextuplicará en los próximos 10 años por el uso de la IA, al que habrá que sumar la electrificación del transporte y la calefacción.

En Estados Unidos, los operadores de la red ya están empezando a resentirse, dice la consultora Wood Mackenzie: "Se están viendo afectados por las demandas de los centros de datos exactamente al mismo tiempo que se está produciendo el resurgir (gracias a la política gubernamental) de la fabricación nacional".

Coqueteando con la energía nuclear

Los nuevos modelos pequeños como Phi-3 o Gemini Nano, que se ejecutan directamente en nuestros dispositivos, pueden aliviar parte del problema. Al mismo tiempo, el rendimiento del hardware está mejorando, lo que permite ahorrar energía tanto en el entrenamiento como en la inferencia.

Pero a medida que mejora el hardware, las grandes tecnológicas también compiten por entrenar modelos más grandes y capaces, lo que requiere más centros de datos para almacenar los datos de entrenamiento y más energía para alimentar toda la capacidad de computación.

Es una pescadilla que se muerde la cola. Y aunque los centros de datos suelen tener instalaciones de autoconsumo, esto va a requerir soluciones más drásticas. Por eso empresas como Microsoft empiezan a apostar por los reactores nucleares modulares mientras Sam Altman, CEO de de OpenAI, invierte en fusión nuclear.

Imagen | Microsoft

En Xataka | La respuesta de un ejecutivo de Meta a cuánto consume la IA: "solo harían falta dos reactores nucleares para cubrirlo"

Inicio