Samsung ya tiene listas sus memorias HBM3E y ultima sus GDDR7: más capacidad y más eficiencia que nunca

El fabricante tiene ante sí un futuro prometedor con estos componentes, ya que la IA está pidiendo a gritos el ancho de banda que estos chips proporcionan

Memory Tech Day Pr Dl6 Copia 2
2 comentarios Facebook Twitter Flipboard E-mail

Samsung ha celebrado estos días su Memory Tech Day, un evento centrado específicamente en el segmento de los chips de memoria. Es allí donde ha presentado varias novedades en este terreno, y aunque el protagonista claro son las memorias HBM3E (Shinebolt), también ha habido ocasión de adelantar detalles sobre las inminentes memorias GDDR7.

Shinebolt. Ese es el nombre en clave de la nueva evolución de la tecnología HBM (High Bandwidth Memory), que desde que se lanzó ofrecía prestaciones fantásticas para las tarjetas gráficas por su gran ancho de banda pero que tenía un problema: era más cara que las tradicionales memorias GDDR. Su evolución aún así ha sido notable, y ahora esas prestaciones compensan a una industria muy particular: la de la inteligencia artificial, que es una voraz consumidora del ancho de banda.

Quién usa esta memoria. El pasado mes de agosto nos enteramos de que NVIDIA había presentado sus nuevos superchips para IA, los GH200. Estos complejísimos componentes incluyen una potente CPU y GPU, pero la novedad estaba en que además integraban memoria HBM3E, siendo el primer fabricante del mundo que hacía uso de este tipo de chips de memorias.

Y por qué. La clave está no tanto en la capacidad de estos chips —que también, porque el máximo sube de 24 GB (HBM3) a 36 GB (HBM3E)— sino en su mayor ancho de banda: en HBM3 (Icebolt) el ancho de banda máximo por pin es de 6,4 Gb/s, pero en HBM3e (Shinebolt) se llega a unos teóricos 9,8 Gb/s, un 50%. Es algo excepcional que permite mover hasta 1.225 TB/s frente a los 819,2 GB/s de su predecesora, y que es mucho más también que los 256 GB/s de la memoria HBM2 original.

Eficiencia similar. Aunque en Samsung presumen de que Shinebolt será un 10% más eficiente que Icebolt —consume un 10% menos de energía por cada bit transferido—, el problema está en que esas memorias funcionan un 25% más rápido, lo que acaba erradicando esa ventaja en eficiencia. Así pues, aunque es de facto más eficiente, al funcionar "acelerada" de forma nativa acaba consumiendo básicamente lo mismo (o incluso más) que su predecesora.

Grandes noticias para la IA. Estas memorias no están dirigidas al mercado del usuario final y a las tarjetas gráficas que usamos para jugar, sino que se trata de una opción más ambiciosa y cara dirigida, como decíamos, al ámbito de la inteligencia artificial. En este segmento tanto en ancho de banda como la capacidad de los chips de memoria son factores que limitan el desarrollo de esta disciplina, y estas mejoras son una gran noticia para quienes trabajan en el desarrollo por ejemplo de grandes modelos de lenguaje.

GDDR7 a la vista. Además de la memoria HBM3E —que ya está en producción y llegará al mercado en 2024— Samsung dio más datos sobre GDDR7, la nueva generación de memoria gráfica. Entre las novedades destacadas está el uso de codificación PAM3 —lo que permitirá enviar más información por ciclo— en módulos de 16 Gbits que podrán ofrecer un ancho de banda un 33% superior al que ofrecían los chips GDDR6. No solo eso: estos chips serán también un 20% más eficientes que sus antecesores. Estamos pues ante los próximos protagonistas en nuestras gráficas gaming, pero también acabarán usándose en soluciones IA e incluso en el campo de la automoción.

El futuro en 10 nm. Aunque es normal hablar ya de procesadores de 5 nm —y pronto veremos los de 3 nm—, los chips de memoria van un pasito por detrás en cuanto a procesos fotolitográficos. Hasta ahora la protagonista era la fotolitografía de 14 nm y 12 nm, pero Samsung ya trabaja en su próxima generación (11 nm) e incluso la futura tecnología de 10 nm que según el fabricante permitirá crear módulos de 100 Gbits cuando en la actualidad lo habitual es contar con módulos de 16 Gbits. Más capacidad y más eficiencia que demuestran que el futuro de este tipo de componentes parece garantizado.

En Xataka | La IA de las tarjetas gráficas de NVIDIA, a prueba: analizamos el impacto de DLSS 2.0 en el rendimiento y la calidad de imagen

Inicio