Acelerando la IA Avanzada en cada Data Center.
La IA, las simulaciones complejas y los conjuntos de datos masivos requieren múltiples GPU con interconexiones extremadamente rápidas y una pila de software totalmente acelerada. La plataforma NVIDIA HGX™ reúne todo la potencia de las GPU de NVIDIA, NVIDIA NVLink™, las redes de NVIDIA y las pilas de software de IA y computación de alto rendimiento (HPC) totalmente optimizadas para proporcionar el más alto rendimiento de las aplicaciones e impulsar el tiempo más rápido de obtención de la información para todos los data centers.
NVIDIA HGX B300 NVL16 integra las GPU NVIDIA Blackwell Ultra con interconexiones de alta velocidad para impulsar al data center hacia una nueva era de computación acelerada e IA generativa. Los sistemas HGX con tecnología Blackwell, en su calidad de plataforma de escalabilidad acelerada con hasta 11 veces más rendimiento de inferencia que la generación anterior, están diseñados para las cargas de trabajo más exigentes de IA generativa, análisis de datos y HPC.
NVIDIA HGX incluye opciones de red avanzadas a velocidades de hasta 800 gigabits por segundo [Gb/s] mediante NVIDIA Quantum-X800 InfiniBand y Spectrum™-X Ethernet, para el más alto rendimiento de IA. HGX también incluye unidades de procesamiento de datos (DPU) NVIDIA® BlueField®-3 para habilitar redes en la nube, almacenamiento componible, seguridad de confianza cero y elasticidad de computación de GPU en nubes de IA a hiperescala.
El desempeño proyectado puede cambiar. Latencia de token a token (TTL) = 20 ms en tiempo real; latencia del primer token (FTL) = 5 s; longitud de secuencia de entrada = 32,768; longitud de secuencia de salida = 1,028; 8 GPU HGX H100 de ocho vías con refrigeración por aire en comparación con 1 HGX B300 NVL16 con refrigeración por aire, según la comparación de desempeño por GPU; se proporciona mediante inferencia disgregada.
HGX B300 NVL16 logra un desempeño de inferencia hasta 11 veces más alto que la generación anterior de NVIDIA Hopper™ en modelos como Llama 3.1 405B. El motor Transformer de segunda generación usa la tecnología Blackwell Tensor Core personalizada combinada con las innovaciones de TensorRT™-LLM para acelerar la inferencia de grandes modelos de lenguaje (LLM).
El rendimiento proyectado está sujeto a cambios. Comparación del rendimiento por GPU: 8 HGX H100 de ocho vías vs. 1 HGX B300 NVL16.
El motor Transformer de segunda generación, con coma flotante de 8 bits (FP8) y nuevas precisiones, permite un entrenamiento notablemente 4 veces más rápido para grandes modelos de lenguaje como Llama 3.1 405B. Este avance se complementa con NVLink de quinta generación con 1,8TB/s de interconexión de GPU a GPU, redes InfiniBand y el software NVIDIA Magnum IO™. En conjunto, garantizan una escalabilidad eficiente para empresas y clústeres de computación GPU de gran tamaño.
El data center es la nueva unidad de computación y las redes juegan un papel fundamental para escalar el desempeño de las aplicaciones a través de él. En combinación con NVIDIA Quantum InfiniBand, HGX ofrece un desempeño y una eficacia de primera categoría, lo que garantiza la utilización plena de los recursos de computación.
Para los data centers de nube de IA que implementan Ethernet, HGX se utiliza mejor con la plataforma de redes NVIDIA Spectrum-X™, que impulsa el más alto desempeño de IA a través de Ethernet. Cuenta con switches Spectrum-X y NVIDIA SuperNIC™ para una utilización óptima de los recursos y el aislamiento del desempeño, lo que genera resultados consistentes y predecibles para miles de trabajos de IA simultáneos en todas las escalas. Spectrum-X posibilita un nivel avanzado de uso compartido de la nube y seguridad de confianza cero. Como diseño de referencia, NVIDIA ha diseñado Israel-1, una supercomputadora de IA generativa a hiperescala desarrollada con servidores Dell PowerEdge XE9680 que utilizan la plataforma de NVIDIA HGX de 8 GPU, SuperNIC BlueField-3 y switches Spectrum-4.
NVIDIA HGX está disponible en placas base individuales con cuatro u ocho GPU Hopper, ocho GPU NVIDIA Blackwell o dieciséis GPU Blackwell Ultra. Estas potentes combinaciones de hardware y software sientan las bases para un desempeño de supercomputación de IA sin precedentes.
HGX B300 NVL16 | HGX B200 | |
---|---|---|
Formato | 16 GPU NVIDIA Blackwell Ultra | 8 GPU NVIDIA Blackwell |
Núcleo Tensor FP4** | 144 PFLOPS | 105 PFLOPS | 144 PFLOPS | 72 PFLOPS |
Núcleo Tensor FP8/FP6* | 72 PFLOPS | 72 PFLOPS |
Núcleo Tensor INT8* | 2 POPS | 72 POPS |
Núcleo Tensor FP16/BF16* | 36 PFLOPS | 36 PFLOPS |
Núcleo Tensor TF32* | 18 PFLOPS | 18 PFLOPS |
FP32 | 600 TFLOPS | 600 TFLOPS |
Núcleo Tensor FP64/FP64 | 10 TFLOPS | 296 TFLOPS |
Memoria Total | Hasta 2.3TB | 1.4TB |
NVLink | Quinta generación | Quinta generación |
NVIDIA NVSwitch™ | Switch NVLink 5 | Switch NVLink 5 |
Ancho de Banda de GPU a GPU NSwitch | 1.8TB/s | 1.8TB/s |
Ancho de Banda Total de NVLink | 14.4TB/s | 14.4TB/s |
* Con baja densidad
** Con baja densidad | sin baja densidad
Más información sobre la arquitectura NVIDIA Blackwell.