Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
Impulsando la nueva era de la IA generativa.
GB200 NVL72 conecta 36 CPU Grace y 72 GPU Blackwell en un diseño a escala de rack. El GB200 NVL72 es una solución a escala de rack refrigerada por líquido que cuenta con un dominio NVLink de 72 GPU que actúa como una única GPU masiva y ofrece un tiempo real 30 veces más rápido para la inferencia LLM de billones de parámetros.
El Superchip GB200 Grace Blackwell es un componente clave de NVIDIA GB200 NVL72, que conecta dos GPU NVIDIA Blackwell Tensor Core de alto rendimiento y una CPU NVIDIA Grace mediante la interconexión NVIDIA® NVLink®-C2C a las dos GPU Blackwell.
El NVIDIA GB200 NVL72 es una computadora a exaescala en un solo rack. Con 36 GB200 interconectados por el dominio NVIDIA® NVLink® más grande jamás ofrecido, el Sistema de Switch NVLink proporciona 130 terabytes por segundo (TB/s) de comunicaciones GPU de baja latencia para cargas de trabajo de IA y computación de alto rendimiento (HPC).
Destacados
30X vs. GPU NVIDIA H100 Tensor Core
4X frente a H100
25X frente a H100
18X frente a CPU
Inferencia LLM y eficiencia energética: TTL = 50 milisegundos (ms) en tiempo real, FTL = 5000 ms, 32 000 entradas/1000 salidas, NVIDIA HGX™ H100 ampliado sobre InfiniBand (IB) frente a GB200 NVL72, entrenamiento de 1,8 T MOE HGX H100 ampliado IB frente a GB200 NVL72 escalado sobre IB. Tamaño del grupo: 30.000 Consulta 4 de TPC-H: GB200 frente a Intel Xeon 8480+ Rendimiento proyectado sujeto a cambios.
GB200 NVL72 presenta capacidades de vanguardia y un Transformer Engine de segunda generación que habilita FP4 AI y, cuando se combina con NVIDIA NVLink de quinta generación, ofrece un rendimiento de inferencia LLM en tiempo real 30 veces más rápido para modelos de lenguaje de billones de parámetros. Este avance es posible gracias a una nueva generación de Tensor Cores, que introducen nuevos formatos de microescala, lo que brinda alta precisión y mayor rendimiento. Además, el GB200 NVL72 utiliza NVLink y refrigeración líquida para crear un único rack masivo de 72 GPU que puede superar los cuellos de botella en las comunicaciones.
GB200 incluye un Transformer Engine más rápido con precisión FP8, lo que permite un entrenamiento notable 4 veces más rápido para grandes modelos de lenguaje a escala. Este avance se complementa con NVLink de quinta generación, que proporciona 1,8 terabytes por segundo (TB/s) de interconexión de GPU a GPU, redes InfiniBand y software NVIDIA Magnum IO™.
Los racks GB200 NVL72 con refrigeración líquida reducen la huella de carbono y el consumo de energía de un data center. La refrigeración líquida aumenta la densidad de computación, reduce la cantidad de espacio utilizado y facilita la comunicación de GPU de gran ancho de banda y baja latencia con grandes arquitecturas de dominio NVLink. En comparación con la infraestructura refrigerada por aire H100, GB200 ofrece 25 veces más rendimiento con la misma potencia y reduce el consumo de agua.
Las bases de datos desempeñan funciones fundamentales en el manejo, procesamiento y análisis de grandes volúmenes de datos para las empresas. GB200 aprovecha el rendimiento de la memoria de gran ancho de banda, NVLink-C2C y los motores de descompresión dedicados en la arquitectura NVIDIA Blackwell para acelerar las consultas clave de bases de datos 18 veces en comparación con la CPU y ofrecer un TCO 5 veces mejor.
Características
La arquitectura NVIDIA Blackwell ofrece avances innovadores en computación acelerada, definiendo la nueva era de la computación con rendimiento, eficiencia y escala incomparables.
El Superchip de CPU NVIDIA Grace es un procesador innovador diseñado para data centers modernos que ejecutan aplicaciones de inteligencia artificial, nube y computación de alto rendimiento (HPC). Proporciona un rendimiento excepcional y un ancho de banda de memoria con el doble de eficiencia energética que los procesadores de servidor líderes en la actualidad.
Liberar todo el potencial de la computación a exaescala y los modelos de IA de billones de parámetros requiere una comunicación rápida y fluida entre cada GPU de un clúster de servidores. La quinta generación de NVLink es una interconexión ampliada que libera un rendimiento acelerado para modelos de IA con billones y multimillones de parámetros.
La red del data center desempeña un papel crucial a la hora de impulsar los avances y el rendimiento de la IA, sirviendo como columna vertebral para el entrenamiento de modelos de IA distribuidos y el rendimiento de la IA generativa. NVIDIA Quantum-X800 InfiniBand, NVIDIA Spectrum-X800 Ethernet y las DPU NVIDIA BlueField-3 permiten una escalabilidad eficiente en cientos y miles de GPU Blackwell para un rendimiento óptimo de las aplicaciones.
El superchip NIVIDIA GB200 Grace Blackwell NVL4 revela el futuro de la HPC y la IA convergentes, ya que ofrece un rendimiento revolucionario a través de cuatro GPU Blackwell conectadas a NVIDIA NVLink™ y unificadas con dos CPU Grace mediante NVLink-C2C.
Especificaciones
1. Especificaciones preliminares. Puede estar sujeto a cambios. 2. Con escasez
Empezar
Regístrese para saber cuándo NVIDIA Blackwell estará disponible.