Compartir
Publicidad

Así es Nvidia Tesla V100: 5.120 núcleos CUDA que estrenan la arquitectura Volta

Así es Nvidia Tesla V100: 5.120 núcleos CUDA que estrenan la arquitectura Volta
Guardar
17 Comentarios
Publicidad
Publicidad

Nvidia lleva un par de días muy activa en novedades, no en vano está teniendo lugar su evento GTC y es el momento ideal para contar cosas. Ayer teníamos constancia de que sus cuentas estaban bastante bien, para más tarde encontrarnos con que también habría novedades a nivel hardware: Tesla V100.

Sí, llevan ya más de un año hablando sobre este procesador, pero ahora tenemos una imagen más clara de cómo es, de sus especificaciones principales, y creemos que merece la pena darle un repaso. Tesla V100 es el motor más potente que Nvidia va a ofrecer para aplicaciones de inteligencia artificial y deep learning. Alrededor de de él se crea todo un ecosistema de soluciones destinadas a empresas, aquí poco va a rascar el mundo gaming.

Para poner un poco de orden hay que decir que Nvidia Tesla V100 es la sucesora de Tesla P100, la primera con Volta

Bueno, según se mire, ya que Tesla V100 es el primer procesador que va a jugar con la ambiciosa arquitectura Volta, que será una realidad a comienzos del año que viene. Y eso sí interesa a todo el mundo, sea para jugar o sea para trabajar.

El nuevo chip cuenta con 21.000 millones de transistores, para que os hagáis una idea podemos establecer una comparativa rápida con el procesador Pascal más potente que tiene Nvidia, y nos quedamos en 15.000 millones de transistores.

Opciones A la izquierda la opción para NVLINK, a la derecha, para conectar vía PCle

Todo esto en un espacio tan reducido como puede ser el frontal de un Apple Watch, que para ser una GPU, es bastante grande: según las cifras de Nvidia nos encontramos con un tamaño un 30% superior al de Tesla P100.

Vamos con el número mágico en esto de las unidades de proceso gráfico de Nvidia, que son los 5.120 núcleos CUDA que va a gastar el bicho, con los que es capaz de desarrollar una potencia de 7,5 TFLOPs en FP64, que suben hasta los 15 TFLOPs en FP32. Esto es fácilmente triplicar la velocidad:

Cores

Este año Nvidia planea instruir a 100.000 desarrolladores en deep learning, donde V100 es 20 veces más rápido que cualquier otro procesador actual

La memoria RAM que va asociada a este procesador es de 16GB, se ha elegido el más alto rendimiento gracias a la tecnología HBM2. Que parece sigue siendo la opción más capaz a nivel profesional, con GDDR6 - más barata y fácil de producir - siguiéndole los pasos.

La tecnología de fabricación es de 12nm (FFN) y corre a cargo de TSMC. Una de las virtudes de Volta es que se mejora en rendimiento en todos los aspectos posibles, y es que se mantiene el nivel de consumo que con Tesla P100, 300W.

Para el que quiera profundizar, o se haya perdido la conferencia, en el siguiente vídeo la tenéis al completo:


Ocho Tesla V100 en un mismo equipo

Nvidia no se ha contentado con enseñarnos cómo es su nuevo procesador Volta, ha propuesto una serie de soluciones que lo utilizan, son tres opciones orientadas al mundo profesional: Nvidia DGX-1, Nvidia DGX Station y Nvidia HGX-1.

  • Nvidia DGX-1 es el más potente, puede llevar ocho procesadores Tesla V100. ¿Cómo se unen? Con la interconexión NVLink en su versión 2.0. Los números asustan: 960 Tensor TFLOPs, 128GB de memoria HBM2 y 149.000 dólares por la caja. Una de ellas puede sustituir el trabajo de 400 servidores convencionales, con la mejora en consumo que eso supone.

  • Nvidia HGX-1 vuelve a utilizar los ocho procesadores Tesla V100, pero con una orientación diferente: dar potencia de proceso a servicios en la nube. Características similares y precio desconocido.

  • Por último tenemos Nvidia DGX Station, que es la más “sencilla”, con cuatro procesadores Tesla V100. Los números se reducen a la mitad en las principales especificaciones y el precio baja a 69.000 dólares.


Más información | Tesla V100

Temas
Publicidad
Publicidad
Publicidad
Inicio
Inicio

Ver más artículos