Impulsando la nueva era de la IA generativa.
Descripción General
GB200 NVL72 conecta 36 CPU Grace y 72 GPU Blackwell en un diseño a escala de rack y refrigeración por líquido. Cuenta con un dominio NVIDIA NVLink™ de 72 GPU que actúa como una sola GPU masiva y que ofrece una inferencia de gran modelo de lenguaje (LLM) de billones de parámetros en tiempo real 30 veces más rápida.
El superchip GB200 Grace Blackwell es un componente clave de NVIDIA GB200 NVL72, que conecta dos GPU NVIDIA Blackwell Tensor Core de alto rendimiento y una CPU NVIDIA Grace™ a través de la interconexión NVLink-C2C a las dos GPU Blackwell.
Destacados
Inferencia LLM y eficiencia energética: TTL = 50 milisegundos (ms) en tiempo real, FTL = 5000 ms, 32 000 entradas/1000 salidas, NVIDIA HGX™ H100 ampliado sobre InfiniBand (IB) frente a GB200 NVL72, entrenamiento de 1,8 T MOE HGX H100 ampliado IB frente a GB200 NVL72 escalado sobre IB.
Tamaño del grupo: 30.000
Consulta 4 de TPC-H: GB200 frente a Intel Xeon 8480+
Rendimiento proyectado sujeto a cambios.
NVIDIA GB200 NVL4 abre las puertas al futuro de la HPC y la IA convergentes, ofreciendo un desempeño revolucionario a través de un puente que conecta cuatro GPU NVLink de NVIDIA Blackwell unificadas con dos CPU Grace a través de la interconexión NVLink-C2C. Es compatible con los servidores modulares NVIDIA MGX™ con refrigeración líquida y proporciona un desempeño hasta dos veces mayor para la computación científica, la IA para el entrenamiento científico y las aplicaciones de inferencia en comparación con la generación anterior.
Características
NVIDIA Mission Control optimiza las operaciones de la fábrica de IA, desde las cargas de trabajo hasta la infraestructura, con experiencia y conocimiento de nivel internacional que se suministran como software. Impulsa los data centers de NVIDIA Grace Blackwell, lo que brinda agilidad instantánea para la inferencia y el entrenamiento, a la vez que proporciona inteligencia de pila completa para la resiliencia de la infraestructura. Todas las empresas pueden ejecutar la IA con eficiencia a hiperescala, lo que simplifica y acelera la experimentación con IA.
Especificaciones
| GB200 NVL72 | Superchip GB200 Grace Blackwell | |
| Configuración | 36 CPU Grace: 72 GPU Blackwell | 1 CPU Grace: 2 GPU Blackwell |
| FP4 Tensor Core2 | 1.440 PFLOPS | 40 | 20 PFLOPS |
| Núcleo Tensor FP8/FP622 | 720 PFLOPS | 20 PFLOPS |
| Núcleo Tensor INT82 | 720 POPS | 20 POPS |
| FP16/BF16 Tensor Core2 | 360 PFLOPS | 10 PFLOPS |
| TF32 Tensor Core2 | 180 PFLOPS | 5 PFLOPS |
| FP32 | 5,760 TFLOPS | 160 TFLOPS |
| Núcleo Tensor FP64 / FP64 | 2,880 TFLOPS | 80 TFLOPS |
| Memoria de GPU | Ancho de Banda | Hasta 13,4TB HBM3e | 576TB/s | Hasta 372 GB HBM3e | 16TB/s |
| Ancho de Banda NVLink | 130TB/s | 3.6TB/s |
| Recuento de Núcleos de CPU | 2.592 núcleos Arm® Neoverse V2 | 72 núcleos Arm Neoverse V2® |
| Memoria de CPU | Ancho de Banda | Hasta 17TB LPDDR5X | Hasta 14TB/s | Hasta 480GB LPDDR5X | Hasta 512 GB/s |
|
1. Especificación en disperso | denso. |
||
NVIDIA GB300 NVL72 cuenta con una arquitectura a escala de rack completamente refrigerada por líquido que integra 72 GPU NVIDIA Blackwell Ultra y 36 CPU NVIDIA Grace™ basadas en Arm® en una sola plataforma, diseñada específicamente para tareas de razonamiento de IA y de inferencia de escalado en tiempo de prueba. Las fábricas de IA aceleradas por GB300 NVL72 (que aprovechan NVIDIA Quantum-X800 InfiniBand o Spectrum-X Ethernet, las SuperNIC ConnectX-8 y la administración de NVIDIA Mission Control) ofrecen un aumento general de hasta 50 veces en el desempeño de la producción de fábricas de IA en comparación con las plataformas basadas en NVIDIA Hopper.