Los centros de datos ya consumen muchísima energía. La IA provocará que esa cifra se triplique en 2030

  • El CEO de ARM avisa de que esta tecnología impondrá unas necesidades energéticas colosales

  • Y usa el discurso para defender cómo ARM desarrolla chips precisamente centrados en la eficiencia

Robot2
12 comentarios Facebook Twitter Flipboard E-mail

Nos encanta usar herramientas como ChatGPT o Midjourney, pero hace ya tiempo que sabemos que hacerlo no sale en absoluto gratis. La capacidad de cálculo necesaria para responder a nuestras peticiones es enorme, y también lo es la cantidad de energía (y agua) que se estima es necesaria para hacer frente a la demanda de este tipo de soluciones. En ARM creen que la cosa será preocupante muy pronto.

La IA está muy bien, pero tiene un problema. El CEO de ARM, Rene Haas, publicaba ayer una reflexión en la sala de prensa de Arm en la cual destacaba cómo la inteligencia artificial "tiene el potencial para exceder todas las innovaciones transformadoras creadas el siglo pasado". Las ventajas que nos puede traer son enormes, afirma, pero eso tiene un efecto colateral.

Sed insaciable. Haas explica que "para ejecutar estas complejas cargas de trabajo de IA, la cantidad de computación necesaria en los centros de datos de todo el mundo necesita crecer exponencialmente" y eso hace que esa "necesidad insaciable de computación" obligará a contar con una cantidad de energía "inmensa" para alimentar todos esos centros de datos.

Más energía que toda India. Según sus datos, los centros de datos consumen a nivel global unos 460 TWh de electricidad anual, lo que equivale a todo lo que consume Alemania en un año. Si las estimaciones que Haas maneja se cumplen, en 2030 ese consumo se multiplicará por tres, lo que significará que los centros de datos globales consumirán más de lo que consume India, el país más poblado del mundo.

¿Cifras plausibles?. La International Energy Agency (IEA) estima que en 2022 se usaron entre 240 y 340 TWh de energía para centros de datos (excluyendo las criptodivisas). Eso supone un aumento de entre el 20 y el 70% respecto a 2015. Predecir que ese consumo se triplicará (crecimiento del 200%) en 2030 parece quizás algo aventurado, pero ciertamente este mercado está creciendo de forma exagerada y esas previsiones podrían cumplirse e incluso superarse.

La propia IEA admite que algunos países como Dinamarca multiplicarán por seis el consumo de sus centros de datos y representarán nada menos que el 15% del uso de energía de ese país. Otros estudios previos hablan de predicciones aún peores para las necesidades energéticas de los centros de datos a nivel global.

Nos quejábamos de bitcoin. La preocupación con ese voraz consumo de energía se vuelve ahora incluso más notable que el que afecta a las criptomonedas, y especialmente a bitcoin, que siempre ha sido muy criticado por el enorme consumo energético que impone. Según la IEA, solo en este mercado en 2022 se consumieron entre 100 y 150 TWh de energía, entre un 2.300 y un 3.500% más que en 2015, cuando apenas había interés en ellas. Es probable que este segmento crezca también en necesidades energéticas —el halving también influirá en ello— pero es difícil estimar en qué medida.

ARM denuncia el problema, y presume de tener la solución. La reflexión de Haas es interesante, pero pronto pierde algo de fuerza porque tras denunciar esa realidad, saca pecho afirmando que ARM puede "reimaginar el futuro de la IA" con sus diseños de chips centrados en la eficiencia. Da varios ejemplos de chips de IA como los Graviton de AWS, los Cobalt de Azure, los Ampere Altra Max de Oraclae Cloud o los Axion de Google Cloud. En todos los casos se hace uso de CPUs ARM Neoverse que también se usará en los NVIDIA Grace.

La eficiencia importa (y cada vez más). Con todo y con eso, el argumento es totalmente válido: ante la ingente necesidad de capacidad de cómputo para entrenar y utilizar grandes modelos de IA, la urgencia de contar con chips cada vez más eficientes es enorme. ARM tiene desde luego mucho que ganar aquí frente a fabricantes como NVIDIA, Intel o AMD que tradicionalmente no han destacado por chips tan eficientes como los que plantea la empresa británica. O eso, o aceptar la solución de ese ingeniero de meta que aboga por aprovechar una tecnología que ciertamente puede ser interesante para resolver esas necesidades: la energía nuclear.

Imagen | Morta0781 con Midjourney

En Xataka | La alucinante historia de ARM, la arquitectura que triunfa en el móvil y que nació hace más de 30 años en Acorn Computer

Comentarios cerrados
Inicio