Plataforma NVIDIA HGX

Impulsar la IA y computación de alto rendimiento para cada centro de datos.

Descripción

Impulsar la inteligencia artificial y la computación de alto rendimiento (HPC) para cada centro de datos

La plataforma NVIDIA HGX™ combina toda la potencia de las GPU NVIDIA, NVIDIA NVLink™, redes NVIDIA y pilas de software de IA totalmente optimizadas y la informática de alto rendimiento (HPC) para ofrecer el más alto rendimiento de aplicaciones y acelerar el tiempo de obtención de información para cada centro de datos.

NVIDIA HGX Rubin NVL8 integra ocho GPU NVIDIA Rubin con interconexiones NVLink de alta velocidad de sexta generación y ofrece 5.5x veces más FLOPS NVFP4 que HGX B200 para impulsar el centro de datos hacia una nueva era de computación acelerada e IA generativa.

NVIDIA inicia la próxima generación de IA con Rubin: seis nuevos chips, un increíble superordenador de IA

La plataforma de última generación aumenta la escala de la adopción general, lo cual recorta el coste por token con cinco avances para los modelos de IA de razonamiento y de agentes.

Hoja de datos de NVIDIA HGX H100 y HGX H200

Descubra las capacidades y características de los sistemas HGX H100 y H200 de NVIDIA. Esta hoja de datos ofrece información detallada sobre las especificaciones y el rendimiento.

Rendimiento y versatilidad de razonamiento de IA

La IA, las simulaciones complejas y los conjuntos de datos masivos requieren varias GPU con interconexiones extremadamente rápidas y una pila de software totalmente acelerada. La plataforma NVIDIA HGX™ reúne toda la potencia de las GPU NVIDIA, NVIDIA NVLink™, las redes NVIDIA y pilas de software de IA totalmente optimizadas e informática de alto rendimiento (HPC) para proporcionar el más alto rendimiento de aplicaciones e impulsar el tiempo más rápido de información para cada centro de datos.

Plataforma de computación acelerada de extremo a extremo sin igual

NVIDIA HGX B300 integra GPU NVIDIA Blackwell Ultra con interconexiones de alta velocidad para impulsar el centro de datos hacia una nueva era de computación acelerada e IA generativa. Como plataforma de escalado acelerado de primer nivel con un rendimiento de inferencia hasta 11 veces superior al de la generación anterior, los sistemas HGX basados en NVIDIA Blackwell están diseñados para las cargas de trabajo de IA generativa, análisis de datos y HPC más exigentes.

NVIDIA HGX incluye opciones de red avanzadas a velocidades de hasta 800 gigabits por segundo (Gb/s), que utilizan NVIDIA Quantum-X800 InfiniBand y Ethernet Spectrum™-X para lograr el más alto rendimiento de IA. HGX también incluye unidades de procesamiento de datos (DPU) NVIDIA BlueField®-3 para permitir las redes en la nube, el almacenamiento componible, la seguridad de confianza cero y la elasticidad de computación de GPU en nubes de IA a hiperescala. 

Rendimiento y versatilidad de razonamiento de IA

DeepSeek-R1 ISL = 32K, OSL = 8K, HGX B300 con desagregación FP4 de NVIDIA Dynamo. H100 con lotes en vuelo FP8. El rendimiento proyectado está sujeto a cambios.

Aumente los ingresos xx salida de fábrica de IA.

La curva de frontera ilustra los parámetros clave que determinan la salida de ingresos de tokens de fábrica de IA. El eje vertical representa el rendimiento de tokens de GPU por segundo (TPS) en una fábrica de IA de megavatio (MW), mientras que el eje horizontal cuantifica la interactividad y capacidad de respuesta del usuario como TPS para un solo usuario. En la intersección óptima de rendimiento y capacidad de respuesta, HGX B300 multiplica por 30 el rendimiento general de salida de fábrica de IA en comparación con la arquitectura NVIDIA Hopper™ para obtener los máximos ingresos por tokens.

Entrenamiento escalable para modelos de IA de gran tamaño

Rendimiento del entrenamiento de siguiente nivel

La plataforma HGX B300 proporciona un rendimiento de entrenamiento hasta 2,6 veces superior para modelos de lenguaje de gran tamaño, como DeepSeek-R1. Con más de 2 TB de memoria de alta velocidad y 14,4 TB/s de ancho de banda de NVLink Switch, permite el entrenamiento de modelos a escala masiva y la comunicación de alto rendimiento entre GPU.

El rendimiento proyectado está sujeto a cambios. Perf por GPU, FP8, 16K BS, longitud de secuencia de 16K.

Acelerar HGX con redes NVIDIA

Las fábricas de IA y los centros de supercomputación abarcan miles de GPU como un único motor de computación distribuida. Para utilizar los aceleradores al cien por cien, las cargas de trabajo científicas y de IA exigen latencia determinista, rendimiento sin pérdidas, tiempos de iteración estables y la capacidad de escalar no solo dentro de un centro de datos, sino también en varios sitios.

Las redes de NVIDIA proporcionan el tejido de pila completa que lo hace posible, combinando la escalabilidad vertical de NVIDIA NVLink, la escalabilidad horizontal de NVIDIA Quantum InfiniBand y Spectrum-X™ Ethernet y la escalabilidad distribuida de Spectrum-XGS Ethernet en varios centros de datos, NVIDIA® BlueField® DPU y DOCA™ para servicios de infraestructura, y plataformas fotónicas de silicio de próxima generación, lo cual habilita los centros de datos de IA más exigentes del mundo.

Especificaciones de NVIDIA HGX

NVIDIA HGX está disponible en una única placa base con ocho SXM NVIDIA Rubin, NVIDIA Blackwell o NVIDIA Blackwell Ultra. Estas potentes combinaciones de hardware y software sientan las bases para un rendimiento de supercomputación de IA sin precedentes.

HGX Rubin NVL8*
Factor de forma 8x NVIDIA Rubin SXM
Inferencia NVFP4 400 PETAFLOPS
Entrenamiento NVFP4 280 PETAFLOPS
Entrenamiento FP8/FP6 140 PF
INT8 Tensor Core<sup>1</sup> 2 PFLOPS
FP16/BF16 Tensor Core<sup>1</sup> 32 PETAFLOPS
TF32 Tensor Core<sup>1</sup> 16 PETAFLOPS
FP32 1040 TFLOPS
Núcleo Tensor FP64/FP64 264 TFLOPS
FP32 SGEMM | FP64 DGEMM2<sup>2</sup> 3200 TF | 1600 TF
Memoria total 2.3 TB
NVIDIA NVLink Sexta generación
Conmutador NVIDIA NVLink Conmutador NVLink 6
Ancho de banda de NVLink de GPU a GPU 3.6 TB/s
Ancho de banda total de NVLink Switch 28.8 TB/s
Ancho de banda de red 1.6 TB/s

* Especificación preliminar, sujeta a cambios
1.  Especificación en denso.
2.  Rendimiento máximo utilizando algoritmos de emulación basados en núcleos tensor.

HGX Rubin NVL8
Form Factor 8x NVIDIA Rubin SXM
FP4 Tensor Core<sup>1</sup> 400 PFLOPS | 144 PFLOPS
FP8/FP6 Tensor Core<sup>2</sup> 272 PFLOPS
INT8 Tensor Core<sup>2</sup> 4 PFLOPS
FP16/BF16 Tensor Core<sup>2</sup> 64 PFLOPS
TF32 Tensor Core<sup>2</sup> 32 PFLOPS
FP32 1040 TFLOPS
FP64/FP64 Tensor Core 264 TFLOPS
Total Memory 2.3 TB
NVIDIA NVLink Sixth generation
NVIDIA NVLink Switch™ NVLink 6 Switch
NVLink GPU-to-GPU Bandwidth 3.6 TB/s
Total NVLink Bandwidth 28.8 TB/s
Networking Bandwidth 1.6 TB/s
Attention Performance<sup>3</sup> <awaiting results>2x
HGX B300 HGX B200
Factor de forma 8x NVIDIA Blackwell Ultra SXM 8x NVIDIA Blackwell SXM
Núcleo Tensor FP4<sup>1</sup> 144 PETAFLOPS | 108 PETAFLOPS 144 PETAFLOPS | 72 PETAFLOPS
Núcleo Tensor FP8/FP6<sup>2</sup> 72 PETAFLOPS 72 PETAFLOPS
Núcleo Tensor INT8<sup>2</sup> 3 POPS 72 POPS
Núcleo Tensor FP16/BF16<sup>2</sup> 36 PETAFLOPS 36 PETAFLOPS
Núcleo Tensor TF32<sup>2</sup> 18 PETAFLOPS 18 PETAFLOPS
FP32 600 TERAFLOPS 600 TERAFLOPS
FP64/FP64 Tensor Core 10 TERAFLOPS 296 TERAFLOPS
Memoria total 2.1 TB 1.4 TB
NVIDIA NVLink Quinta generación Quinta generación
NVIDIA NVLink Switch™ Conmutador NVLink 5 Conmutador NVLink 5
Ancho de banda de GPU a GPU de NVSwitch 1.8 TB/s 1.8 TB/s
Ancho de banda NVLink total 14.4 TB/s 14.4 TB/s
Networking Bandwidth 1.6 TB/s 0.8 TB/s
Attention Performance<sup>3</sup> 2x 1x

1. Especificación en disperso | denso
2. Especificación en disperso. Se muestra la especificación en denso como mitad de disperso.
3. frente a NVIDIA Blackwell.

HGX B300 HGX B200
Form Factor 8x NVIDIA Blackwell Ultra SXM 8x NVIDIA Blackwell SXM
FP4 Tensor Core<sup>1</sup> 144 PFLOPS | 108 PFLOPS 144 PFLOPS | 72 PFLOPS
FP8/FP6 Tensor Core<sup>2</sup> 72 PFLOPS 72 PFLOPS
INT8 Tensor Core<sup>2</sup> 3 POPS 72 POPS
FP16/BF16 Tensor Core<sup>2</sup> 36 PFLOPS 36 PFLOPS
TF32 Tensor Core<sup>2</sup> 18 PFLOPS 18 PFLOPS
FP32 600 TFLOPS 600 TFLOPS
FP64/FP64 Tensor Core 10 TFLOPS 296 TFLOPS
Total Memory 2.1 TB 1.4 TB
NVIDIA NVLink Fifth generation Fifth generation
NVIDIA NVLink Switch™ NVLink 5 Switch NVLink 5 Switch
NVLink GPU-to-GPU Bandwidth 1.8 TB/s 1.8 TB/s
Total NVLink Bandwidth 14.4 TB/s 14.4 TB/s
Networking Bandwidth 1.6 TB/s 0.8 TB/s
Attention Performance<sup>3</sup> 2x 1x

Más información sobre la plataforma NVIDIA Rubin.