Hace meses que Elon Musk se prepara para intentar ganar la batalla de la IA. Ahora ha dado un paso más en esa dirección, y acaba de poner en marcha un gigantesco clúster que cuenta con 100.000 GPUs NVIDIA H100 y que será crucial para entrenar su próximo modelo de IA.
Obsesión con la IA. Tras su historia de desamor con OpenAI, el magnate creó xAI en 2023 para lograr competir en este mercado. A finales de ese año lanzó Grok, su particular (y sarcástico) rival a ChatGPT, y meses después intentó ganarse a los desarrolladores abriendo la mayor parte del proyecto como código abierto.
100.000 GPUs NVIDIA H100. Musk anunciaba hace unas horas la puesta en marcha del "Memphis Supercluster", que inició su actividad con 1.000 tarjetas gráficas NVIDIA H100 con refrigeración líquida. Según sus palabras, se trata del "clúster de entrenamiento IA más potente del mundo". El proyecto se ha llevado a cabo con la colaboración de Supermicro: su CEO, Charles Liang, felicitó a Musk en ese mensaje tras poner en marcha el clúster.
Hambre de tarjetas. El creador de Tesla y SpaceX lleva meses comprando estas tarjetas tanto para xAI como para entrenar sus sistemas de conducción autónoma en Tesla, aunque recientemente parece que parte de ellas fueron desviadas a X.
xAI tendrá nuevo modelo en diciembre. A continuación Musk aseguró que "este es una ventaja significativa para entrenar la IA más potente del mundo en todas las métricas" y aseguró que estará disponible en "diciembre de este año". Se refiere probablemente a Grok3, la tercera generación de un modelo que de momento sigue sin tener la popularidad que sus competidores.
Musk no ha querido esperar. En The Information se habló hace dos meses de cómo Musk preparaba una "Gigafactoría de la Computación". Se valoraba entonces la posibilidad de que hiciera uso de las nuevas tarjetas B200, pero Elon Musk parece no haber querido especial a pesar de la teórica ganancia de potencia y eficiencia.
Este "supercomputador" teóricamente lideraría la lista Top500. El gigantesco Memphis Supercluster se podría convertir de repente en el líder absoluto de la lista Top500, al menos si nos fijamos en ese número de GPUs y su potencia.
Los supercomputadores más potentes del mundo no disponen de tantas GPUs: Frontier tiene 37.888 GPUs de AMD, Aurora tiene 60.000 de Intel y Microsoft Eagle tiene 14.400 de estas NVIDIA H100. Todos se quedan pequeños ante este nuevo "monstruo", aunque no queda claro si su foco específico en el entrenamiento de modelos de IA hará que aparezca en las próximas ediciones de esa prestigiosa lista con los supercomputadores más potentes del mundo.
Imagen | xAI
Ver 11 comentarios
11 comentarios
reyang
Y lo que consumen estas GPU también es impresionante y lo que cuestan, considero que después del hype y el entusiasmo inicial, viene un periodo de estancamiento, donde los avances no serán tan revolucionarios.
En cuanto a Nvidia, si bien es un merito haber tomado la delantera en el ámbito de la inteligencia artificial y tiene una posición privilegiada, creo que esta inmersa en una burbuja y su valor se ha sobredimensionado. Sus altos precios llevan tiempo generando malestar entre sus clientes , tanto así que muchos de ellos ( Google, Microsoft, Meta) están trabajando en sus propios chips para no depender de las caras GPU de Nvidia.
luismorales4
Quisiera saber cuánta energía consume este cacharro.
morpheo2000
Ya no es que corra Crysis..es que se progama su propio Crysis
albertopina1
IA, IA, IA, es lo que dice mi burro.
A ver si con lo que está ganando Nvidia nos hace el favor de bajar el precio de sus GPUs para gaming.
p2dzca
Las GPUs no lo son todo. Se necesita aprendizaje supervisado por personas para corregir errores, alucinaciones y confabulaciones.