La plataforma NVIDIA HGX™ combina toda la potencia de las GPU NVIDIA, NVIDIA NVLink™, redes NVIDIA y pilas de software de IA totalmente optimizadas y la informática de alto rendimiento (HPC) para ofrecer el más alto rendimiento de aplicaciones y acelerar el tiempo de obtención de información para cada centro de datos.
NVIDIA HGX Rubin NVL8 integra ocho GPU NVIDIA Rubin con interconexiones NVLink de alta velocidad de sexta generación y ofrece 5.5x veces más FLOPS NVFP4 que HGX B200 para impulsar el centro de datos hacia una nueva era de computación acelerada e IA generativa.
Las fábricas de IA y los centros de supercomputación abarcan miles de GPU como un único motor de computación distribuida. Para utilizar los aceleradores al cien por cien, las cargas de trabajo científicas y de IA exigen latencia determinista, rendimiento sin pérdidas, tiempos de iteración estables y la capacidad de escalar no solo dentro de un centro de datos, sino también en varios sitios.
Las redes de NVIDIA proporcionan el tejido de pila completa que lo hace posible, combinando la escalabilidad vertical de NVIDIA NVLink, la escalabilidad horizontal de NVIDIA Quantum InfiniBand y Spectrum-X™ Ethernet y la escalabilidad distribuida de Spectrum-XGS Ethernet en varios centros de datos, NVIDIA® BlueField® DPU y DOCA™ para servicios de infraestructura, y plataformas fotónicas de silicio de próxima generación, lo cual habilita los centros de datos de IA más exigentes del mundo.
NVIDIA HGX está disponible en una única placa base con ocho SXM NVIDIA Rubin, NVIDIA Blackwell o NVIDIA Blackwell Ultra. Estas potentes combinaciones de hardware y software sientan las bases para un rendimiento de supercomputación de IA sin precedentes.
| HGX Rubin NVL8* | |
|---|---|
| Factor de forma | 8x NVIDIA Rubin SXM |
| Inferencia NVFP4 | 400 PETAFLOPS |
| Entrenamiento NVFP4 | 280 PETAFLOPS |
| Entrenamiento FP8/FP6 | 140 PF |
| INT8 Tensor Core<sup>1</sup> | 2 PFLOPS |
| FP16/BF16 Tensor Core<sup>1</sup> | 32 PETAFLOPS |
| TF32 Tensor Core<sup>1</sup> | 16 PETAFLOPS |
| FP32 | 1040 TFLOPS |
| Núcleo Tensor FP64/FP64 | 264 TFLOPS |
| FP32 SGEMM | FP64 DGEMM2<sup>2</sup> | 3200 TF | 1600 TF |
| Memoria total | 2.3 TB |
| NVIDIA NVLink | Sexta generación |
| Conmutador NVIDIA NVLink | Conmutador NVLink 6 |
| Ancho de banda de NVLink de GPU a GPU | 3.6 TB/s |
| Ancho de banda total de NVLink Switch | 28.8 TB/s |
| Ancho de banda de red | 1.6 TB/s |
* Especificación preliminar, sujeta a cambios
1. Especificación en denso.
2. Rendimiento máximo utilizando algoritmos de emulación basados en núcleos tensor.
| HGX B300 | HGX B200 | |
|---|---|---|
| Factor de forma | 8x NVIDIA Blackwell Ultra SXM | 8x NVIDIA Blackwell SXM |
| Núcleo Tensor FP4<sup>1</sup> | 144 PETAFLOPS | 108 PETAFLOPS | 144 PETAFLOPS | 72 PETAFLOPS |
| Núcleo Tensor FP8/FP6<sup>2</sup> | 72 PETAFLOPS | 72 PETAFLOPS |
| Núcleo Tensor INT8<sup>2</sup> | 3 POPS | 72 POPS |
| Núcleo Tensor FP16/BF16<sup>2</sup> | 36 PETAFLOPS | 36 PETAFLOPS |
| Núcleo Tensor TF32<sup>2</sup> | 18 PETAFLOPS | 18 PETAFLOPS |
| FP32 | 600 TERAFLOPS | 600 TERAFLOPS |
| FP64/FP64 Tensor Core | 10 TERAFLOPS | 296 TERAFLOPS |
| Memoria total | 2.1 TB | 1.4 TB |
| NVIDIA NVLink | Quinta generación | Quinta generación |
| NVIDIA NVLink Switch™ | Conmutador NVLink 5 | Conmutador NVLink 5 |
| Ancho de banda de GPU a GPU de NVSwitch | 1.8 TB/s | 1.8 TB/s |
| Ancho de banda NVLink total | 14.4 TB/s | 14.4 TB/s |
| Networking Bandwidth | 1.6 TB/s | 0.8 TB/s |
| Attention Performance<sup>3</sup> | 2x | 1x |
1. Especificación en disperso | denso
2. Especificación en disperso. Se muestra la especificación en denso como mitad de disperso.
3. frente a NVIDIA Blackwell.
Más información sobre la plataforma NVIDIA Rubin.