NVIDIA Grace Blackwell GB200

NVIDIA GB200 NVL72

Impulsando la nueva era de la IA generativa.

Descripción General

Desbloqueo de Modelos de Billones de Parámetros en Tiempo Real

GB200 NVL72 conecta 36 CPU Grace y 72 GPU Blackwell en un diseño a escala de rack y refrigeración por líquido. Cuenta con un dominio NVIDIA NVLink™ de 72 GPU que actúa como una sola GPU masiva y que ofrece una inferencia de gran modelo de lenguaje (LLM) de billones de parámetros en tiempo real 30 veces más rápida.

El superchip GB200 Grace Blackwell es un componente clave de NVIDIA GB200 NVL72, que conecta dos GPU NVIDIA Blackwell Tensor Core de alto rendimiento y una CPU NVIDIA Grace™ a través de la interconexión NVLink-C2C a las dos GPU Blackwell.

La Arquitectura de Escala de Rack de Blackwell para la Inferencia y el Entrenamiento de Billones de Parámetros en Tiempo Real

El NVIDIA GB200 NVL72 es una computadora a exaescala en un solo rack. Con 36 GB200 interconectados por el dominio NVIDIA® NVLink® más grande jamás ofrecido, el Sistema de Switch NVLink proporciona 130 terabytes por segundo (TB/s) de comunicaciones GPU de baja latencia para cargas de trabajo de IA y computación de alto rendimiento (HPC).

Destacados

Potenciando la IA de Próxima Generación y la Computación Acelerada

Inferencia de LLM

30 veces

Entrenamiento LLM

4 veces

Eficiencia Energética

25 veces

Procesamiento de Datos

18 veces

Inferencia LLM y eficiencia energética: TTL = 50 milisegundos (ms) en tiempo real, FTL = 5000 ms, 32 000 entradas/1000 salidas, NVIDIA HGX™ H100 ampliado sobre InfiniBand (IB) frente a GB200 NVL72, entrenamiento de 1,8 T MOE HGX H100 ampliado IB frente a GB200 NVL72 escalado sobre IB.
Tamaño del grupo: 30.000
Consulta 4 de TPC-H: GB200 frente a Intel Xeon 8480+
Rendimiento proyectado sujeto a cambios.

Inferencia de LLM en Tiempo Real

GB200 NVL72 presenta capacidades de vanguardia y una segunda generación de la tecnología Transformer Engine, que habilita la IA con precisión FP4. Cuando se combina con NVIDIA NVLink de quinta generación, ofrece un desempeño de inferencia de LLM en tiempo real 30 veces más rápido para modelos de lenguaje con billones de parámetros. Este avance es posible gracias a una nueva generación de Núcleos Tensor que introducen nuevos formatos de microescala, optimizados para la inferencia de IA de alto rendimiento y baja latencia. Además, GB200 NVL72 usa NVLink y la refrigeración líquida para crear un solo bastidor enorme de 72 GPU que puede superar los cuellos de botella de comunicación.

Entrenamiento a Escala Masiva

GB200 NVL72 cuenta con una segunda generación más rápida de la tecnología Transformer Engine, que ofrece precisión FP8 y permite un entrenamiento hasta 4 veces más veloz de grandes modelos de lenguaje a escala. Este avance se complementa con NVLink de quinta generación, que proporciona 1.8 TB/s de interconexión de GPU a GPU, redes InfiniBand y el software NVIDIA Magnum IO™.

Infraestructura con Eficiencia Energética

Los bastidores GB200 NVL72 con refrigeración líquida reducen la huella de carbono y el consumo de energía de un data center. La refrigeración líquida aumenta la densidad de computación, reduce la cantidad de espacio utilizado y facilita la comunicación de la GPU de alto ancho de banda y baja latencia con grandes arquitecturas de dominio NVLink. En comparación con la infraestructura con refrigeración por aire NVIDIA H100, GB200 ofrece 25 veces más desempeño con la misma alimentación, a la vez que reduce el consumo de agua.

Procesamiento de Datos

Las bases de datos desempeñan roles críticos en el manejo, el procesamiento y el análisis de grandes volúmenes de datos para empresas. GB200 aprovecha el desempeño de la memoria de alto ancho de banda, NVLink-C2C y los motores de descompresión dedicados de la arquitectura NVIDIA Blackwell para acelerar las consultas clave de bases de datos 18 veces más rápido en comparación con la CPU, y ofrecer un TCO cinco veces mejor.

NVIDIA GB200 NVL4

NVIDIA GB200 NVL4

NVIDIA GB200 NVL4 abre las puertas al futuro de la HPC y la IA convergentes, ofreciendo un desempeño revolucionario a través de un puente que conecta cuatro GPU NVLink de NVIDIA Blackwell unificadas con dos CPU Grace a través de la interconexión NVLink-C2C. Es compatible con los servidores modulares NVIDIA MGX™ con refrigeración líquida y proporciona un desempeño hasta dos veces mayor para la computación científica, la IA para el entrenamiento científico y las aplicaciones de inferencia en comparación con la generación anterior.

Características

Avances Tecnológicos

Arquitectura Blackwell

La arquitectura NVIDIA Blackwell ofrece avances innovadores en computación acelerada, definiendo la nueva era de la computación con rendimiento, eficiencia y escala incomparables.

CPU NVIDIA Grace

La CPU NVIDIA Grace es un procesador innovador diseñado para data centers modernos que ejecutan aplicaciones de IA, nube y HPC. Proporciona un desempeño y un ancho de banda de memoria excepcionales con el doble de eficiencia energética que los procesadores líderes en servidores actuales.

NVIDIA NVLink de Quinta Generación

Descubrir todo el potencial de la computación a exascala y de los modelos de IA con billones de parámetros depende de que haya una comunicación rápida y sin fisuras entre cada GPU ubicada en un clúster de servidores. La quinta generación de NVLink es una interconexión de escalabilidad que activa un desempeño acelerado para modelos de IA de billones y varios billones de parámetros.

Redes NVIDIA

La red del data center desempeña un papel crucial para impulsar los avances y el desempeño de la IA, y sirve como la columna vertebral para el entrenamiento de modelos de IA distribuida y el desempeño de la IA generativa. NVIDIA Quantum-X800 InfiniBand, NVIDIA Spectrum™-X800 Ethernet y la DPU NVIDIA® BlueField®-3 habilitan una escalabilidad eficiente en cientos y miles de GPU Blackwell para lograr un desempeño óptimo de las aplicaciones.

Fábrica de IA para la Nueva Revolución Industrial

NVIDIA Mission Control

NVIDIA Mission Control optimiza las operaciones de la fábrica de IA, desde las cargas de trabajo hasta la infraestructura, con experiencia y conocimiento de nivel internacional que se suministran como software. Impulsa los data centers de NVIDIA Grace Blackwell, lo que brinda agilidad instantánea para la inferencia y el entrenamiento, a la vez que proporciona inteligencia de pila completa para la resiliencia de la infraestructura. Todas las empresas pueden ejecutar la IA con eficiencia a hiperescala, lo que simplifica y acelera la experimentación con IA.

Especificaciones

Especificaciones de GB200 NVL72

  GB200 NVL72 Superchip GB200 Grace Blackwell
Configuración 36 CPU Grace: 72 GPU Blackwell 1 CPU Grace: 2 GPU Blackwell
FP4 Tensor Core2 1.440 PFLOPS 40 | 20 PFLOPS
Núcleo Tensor FP8/FP622 720 PFLOPS 20 PFLOPS
Núcleo Tensor INT82 720 POPS 20 POPS
FP16/BF16 Tensor Core2 360 PFLOPS 10 PFLOPS
TF32 Tensor Core2 180 PFLOPS 5 PFLOPS
FP32 5,760 TFLOPS 160 TFLOPS
Núcleo Tensor FP64 / FP64 2,880 TFLOPS 80 TFLOPS
Memoria de GPU | Ancho de Banda Hasta 13,4TB HBM3e | 576TB/s Hasta 372 GB HBM3e | 16TB/s
Ancho de Banda NVLink 130TB/s 3.6TB/s
Recuento de Núcleos de CPU 2.592 núcleos Arm® Neoverse V2 72 núcleos Arm Neoverse V2®
Memoria de CPU | Ancho de Banda Hasta 17TB LPDDR5X | Hasta 14TB/s Hasta 480GB LPDDR5X | Hasta 512 GB/s

NVIDIA GB300 NVL72

NVIDIA GB300 NVL72 cuenta con una arquitectura a escala de rack completamente refrigerada por líquido que integra 72 GPU NVIDIA Blackwell Ultra y 36 CPU NVIDIA Grace™ basadas en Arm® en una sola plataforma, diseñada específicamente para tareas de razonamiento de IA y de inferencia de escalado en tiempo de prueba. Las fábricas de IA aceleradas por GB300 NVL72 (que aprovechan NVIDIA Quantum-X800 InfiniBand o Spectrum-X Ethernet, las SuperNIC ConnectX-8 y la administración de NVIDIA Mission Control) ofrecen un aumento general de hasta 50 veces en el desempeño de la producción de fábricas de IA en comparación con las plataformas basadas en NVIDIA Hopper.

Empezar

Estar al Día

Regístrese para saber cuándo NVIDIA Blackwell estará disponible.