El lanzamiento del nuevo superchip de IA de NVIDIA deja una pregunta: dónde están sus equivalentes para PC y móvil

  • Los nuevos NVIDIA B200 con arquitectura Blackwell son verdaderos monstruos del procesamiento

  • Están totalmente orientados a grandes centros de datos

  • NVIDIA no tiene alternativas para ese futuro en el que la IA promete ejecutarse en local en nuestros dispositivos

Blackwell
3 comentarios Facebook Twitter Flipboard E-mail

Jensen Huang estaba en su salsa ayer. Sabedor de que hoy por hoy los rivales están aún con la lengua fuera intentando ganar terreno, presentó —entre otras cosas— sus nuevos chips de inteligencia artificial, los B200 con arquitectura Blackwell.

Estos monstruos de la computación dan un salto cuantitativo claro: de los 80.000 millones de transistores de sus prestigiosos H100 con arquitectura Hopper pasan ahora a los 208.000 millones de transistores. Eso es lo que hace que sean 2,5 veces más potentes que sus predecesores, y eso sin duda los convertirá en productos muy demandados en esta era de la IA en la que la capacidad de proceso marca la diferencia.

El evento GTC 2024 de NVIDIA dejó otras novedades importantes como ese gemelo digital de nuestro planeta, Earth-2, para analizar la meteorología, su Project GROOT para robots humanoides o sus nueva plataforma de simulación cuántica.

Todo prometedor y clara confirmación de que la empresa quiere aprovechar su inercia actual para seguir dominando en los centros de datos de los que dependemos para multitud de procesos tanto profesionales como cotidianos. Pero NVIDIA se está olvidando aparentemente de algo.

De los usuarios.

De hecho, resulta especialmente chocante que no hubiera novedades relacionadas con esa otra pata de la inteligencia artificial que poco a poco va despuntando: la de poder ejecutar aplicaciones de IA en local.

Hemos comenzado a ver por dónde pueden ir los tiros en estos primeros meses de 2024. Los fabricantes de PCs, portátiles y móviles están aprovechando —quizás en exceso— la IA como argumento para vendernos sus nuevos dispositivos. Aunque por ahora los planteamientos son interesantes pero relativamente modestos —transcribir conversaciones, traducirlas en tiempo real, hacer resúmenes—, todo apunta a que esas características irán a más.

Pero para hacerlo sería importante contar con chips especializados. Igual que tenemos tarjetas gráficas para juegos, es razonable pensar que sería útil contar con tarjetas aceleradoras de IA para este tipo de aplicaciones. Es cierto que los SoC actuales de Apple, Intel, AMD o Qualcomm integran núcleos dedicados (normalmente conocidos como NPU, Neural Processing Units), pero tienen que compartir espacio con el resto de componentes, y en algunos casos eso puede no ser suficiente.

Captura De Pantalla 2024 03 19 A Las 13 51 17 Ese nodo de computación Blackwell cuenta con dos CPUs Grace y cuatro de las nuevas GPUs B200 con arquitectura Blackwell. Su rendimiento e IA puede llegar a los 80 petaFLOPS según la empresa. Una absoluta barbaridad.

Y ahí está NVIDIA, que tiene ante sí una oportunidad magnífica de hacerse imprescindible en PCs, portátiles, tabletas y móviles —y virtualmente cualquier otro dispositivo— y no parece tener ninguna solución en ese sentido. Es cierto que sus gráficas RTX sirven también para acelerar este tipo de procesos, pero no están pensadas específicamente para eso. Y ahí está el quid —por cierto, pronunciado [kíd], no [kuíd]— de la cuestión.

Esta particular liebre la levantó hace meses Groq —no confundir con Grok—, una startup que precisamente ha diseñado unos chips de IA llamados LPUs y especializados en el procesamiento del lenguaje. O lo que es lo mismo: aceleradores de ChatGPT.

Su propuesta es de lo más llamativa, sobre todo porque abre las puertas a esa nueva tendencia que haría que no solo tengamos una CPU o una GPU en nuestro ordenador o nuestro smartphone, sino además un LPU para que esa interacción con chatbots como ChatGPT, Copilot o Gemini sea especialmente rápida.

Pero en NVIDIA no parecen de momento interesados en este sector. En parte es entendible: la empresa va como un absoluto cohete gracias a chips como el H100, y es previsible que siga haciéndolo con los nuevos B200. Y sin embargo, nadie está mejor posicionado que ellos para plantear soluciones de este tipo.

Quizás tengan mal recuerdo de su anterior aventura en un mundo que no fuera el de las tarjetas gráficas. Los chips NVIDIA Tegra eran SoCs como los que fabrican ahora Qualcomm, Apple o MediaTek: tenían una CPU y una GPU ARM y estaban centrados en el procesamiento multimedia eficiente.

No les fue mal del todo con el experimento: el Tegra X1 anunciado en enero de 2015 fue el corazón de sus notables NVIDIA Shield, pero también acabó siendo el chip utilizado para las Nintendo Switch que se presentaron en 2017.

Desde entonces no obstante no ha habido mejoras ni novedades aparentes salvo por el hecho de que en 2021 se habló de que dejarían de producirlos, pero por lo visto han acabado reimpulsando su fabricación con motivo del lanzamiento de las Switch OLED, también basadas en los chips Tegra. Han vendido millones de chips gracias al éxito de estas consolas, así que... ¿por qué no reforzar esa línea de productos?

Sólo NVIDIA lo sabe. Lo cierto es que su foco claro en el segmento de las tarjetas gráficas dedicadas y ahora en los chips para IA parece descartar que tengan planteados chips aceleradores de IA para nuestros móviles u ordenadores. Será cuestión de tiempo saber si eso era un error, pero a priori parece un campo interesante en el que la empresa podría haber lanzado su propuesta.

En Xataka | Supermicro es el gigante oculto en la era de la IA. Está creciendo más que NVIDIA

Inicio