Hace algo más de un año Elon Musk anunciaba la creación de xAI, una nueva empresa centrada en la inteligencia artificial. Sus avances por ahora han sido discretos, pero la ambición del magnate en este ámbito es clara, como acaba de demostrar una nueva ronda de inversión.
Inversión colosal. La startup de Musk ha recibido una inyección de capital asombrosa: 6.000 millones de dólares que sitúan la valoración de la compañía en 18.000 millones de dólares. En la ronda han participado Andreessen Howorwitz o Sequoia Capital entre otros. Es una cifra espectacular e insólita, sobre todo teniendo en cuenta que de momento xAI no ha demostrado demasiado.
Grok es una incógnita. La gran apuesta actual de xAI es el (sarcástico) chatbot Grok, que al menos de momento ocupa un segundo plano frente a alternativas mucho más populares. La firma, no obstante, publicó su código fuente para atraer a desarrolladores siguiendo la línea de lo que Meta ha hecho con Llama, y queda por ver si este desarrollo logra coger tracción.
Una misión grandilocuente. En el anuncio oficial de la ronda de inversión los responsables de la empresa indican que "xAI se centra principalmente en el desarrollo de sistemas avanzados de IA que sean veraces, competentes y de máximo beneficio para toda la humanidad. La misión de la empresa es comprender la verdadera naturaleza del universo".
La "Gigafactoría de la Computación". Según datos de The Information citados en Reuters, Musk está preparando la construcción de una supercomputadora gigantesca con el nombre de "Gigafactoría de la Computación". Una que pueda ofrecer la capacidad de cálculo que necesitarán futuras versiones de Grok, su chatbot.
100.000 GPUs NVIDIA H100. Esa supercomputadora será sencillamente espectacular si se cumplen los planes de Musk. En una reunión con inversiónres indicó que el objetivo era utilizar hasta 100.000 GPUs NVIDIA H100, lo que la convertiría en el cluster más grande del mundo en este ámbito, siendo cuatro veces superior al siguiente en magnitud. Grok 2, la segunda revisión de su modelo de IA, necesitó cerca de 20.000 GPUs H100 para ser entrenado, y puede que futuras versiones requieran precisamente esa enorme capacidad que plantea la "Gigafactoría de la Computación".
Tardarán en ponerlo en marcha. La alta demanda de esos chips provocará que la empresa tarde en cumplir su objetivo: se espera que esa supercomputadora esté preparada en 2025. Para entonces, eso sí, los H100 habrán sido ya superados por las GPUs B100 y B200 de NVIDIA con arquitectura Blackwell.
Imagen | Dvids | xAI
Ver 6 comentarios