Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
Impulsamos la nueva era de la computación.
GB200 NVL72 conecta 36 CPU Grace y 72 GPU Blackwell en un diseño a escala de bastidor. GB200 NVL72 es una solución a escala de bastidor con refrigeración por líquido que cuenta con un dominio NVLink de 72 GPU que actúa como una única GPU masiva y proporciona una inferencia de LLM en tiempo real 30 veces más rápida para billones de parámetros.
GB200 Grace Blackwell Superchip es un componente clave de NVIDIA GB200 NVL72, que conecta dos GPU NVIDIA Blackwell Tensor Core de alto rendimiento y una CPU NVIDIA Grace mediante la interconexión NVIDIA® NVLink®-C2C a las dos GPU Blackwell.
NVIDIA GB200 NVL72 es un ordenador de exaescala en un único bastidor. Con 36 GB200 interconectados por el mayor dominio NVIDIA® NVLink® jamás ofrecido, el sistema de conmutadores NVLink proporciona 130 terabytes por segundo (TB/s) de comunicaciones de GPU de baja latencia para cargas de trabajo de IA y computación de alto rendimiento (HPC).
Aspectos destacados
30 veces frente a la GPU NVIDIA H100 Tensor Core
4 veces frente a H100
25 veces frente a H100
18 veces frente a CPU
Inferencia de LLM y eficiencia energética: TTL= 50 milisegundos (ms) en tiempo real, FTL= 5 s, 32 768 entradas/1024 salidas, NVIDIA HGX™ H100 escalada sobre InfiniBand (IB) frente a GB200 NVL72, entrenamiento de HGX H100 de 4096x MOE 1.8T escalada sobre IB frente a GB200 NVL72 de 456x escalada sobre IB. Tamaño del clúster: 32 768 Una carga de trabajo de agregación y unión a bases de datos con compresión Snappy/Deflate derivada de la consulta TPC-H Q4. Implementaciones de consulta personalizadas para una sola GPU x86, H100 y una sola GPU de GB200 NLV72 frente a Intel Xeon 8480+ Rendimiento previsto sujeto a cambios.
GB200 presenta capacidades de vanguardia y un motor de inferencia que, cuando se combina con la quinta generación de NVIDIA® NVLink, proporciona un rendimiento de inferencia de LLM 30 veces superior en tiempo real para modelos lingüísticos de varios billones de parámetros. Este avance es posible gracias a una nueva generación de Tensor Cores, que introducen nuevas precisiones FP4 de microescalado. Además, la GB200 NVL72 utiliza NVLink y refrigeración líquida para crear un único bastidor masivo de 72 GPU que puede superar los cuellos de botella en las comunicaciones.
GB200 incluye un motor transformador más rápido con precisión FP8, lo que permite un entrenamiento 4 veces más rápido para modelos lingüísticos de gran tamaño a escala. Este avance se complementa con NVLink de quinta generación, que proporciona 1,8 terabytes por segundo (TB/s) de interconexión GPU-GPU, redes InfiniBand y el software NVIDIA Magnum IO™.
Los bastidores GB200 NVL72 con refrigeración por líquido reducen la huella de carbono y el consumo energético de un centro de datos. La refrigeración por líquido aumenta la densidad de computación, reduce la superficie utilizada y facilita la comunicación entre GPU de alto ancho de banda y baja latencia con grandes arquitecturas de dominio NVLink. En comparación con la infraestructura H100 refrigerada por aire, GB200 ofrece un rendimiento 25 veces superior con la misma potencia, al tiempo que reduce el consumo de agua más de 13 veces.
Las bases de datos desempeñan un papel fundamental en la gestión, el procesamiento y el análisis de grandes volúmenes de datos para las empresas GB200 aprovecha el alto ancho de banda de NVLink-C2C y los motores de descompresión dedicados de la arquitectura NVIDIA Blackwell para acelerar 18 veces las consultas de bases de datos clave en comparación con la CPU y ofrecer un TCO 5 veces mejor.
Características
La arquitectura NVIDIA Blackwell ofrece avances revolucionarios en computación acelerada, y define la nueva era de la IA generativa con un rendimiento, eficiencia y escala sin precedentes.
NVIDIA Grace CPU Superchip es un procesador revolucionario diseñado para centros de datos modernos que ejecutan aplicaciones de IA, en la nube y HPC. Ofrece un rendimiento y un ancho de banda de memoria extraordinarios con una eficiencia energética 2 veces superior a la de los principales procesadores de servidores actuales.
Para liberar todo el potencial de la computación de exaescala y los modelos de IA de billones de parámetros se necesita una comunicación rápida y fluida entre todas las GPU de un clúster de servidores. La quinta generación de NVLink es una interconexión a escala vertical que libera un rendimiento acelerado para modelos de IA de varios billones de parámetros.
La red del centro de datos desempeña un papel crucial a la hora de impulsar los avances y el rendimiento de la IA, ya que sirve de base para el entrenamiento distribuido de modelos de IA y el rendimiento de la IA generativa. Las DPU NVIDIA Quantum-X800 InfiniBand, NVIDIA Spectrum™-X800 Ethernet y NVIDIA BlueField®-3 permiten una escalabilidad eficiente a través de cientos y miles de GPU Blackwell para lograr un rendimiento óptimo de las aplicaciones.
El superchip NVIDIA GB200 Grace Blackwell NVL4 libera el futuro de la convergencia de IA y HPC, ofreciendo un rendimiento revolucionario a través de cuatro GPU NVIDIA Blackwell conectadas por NVLink™ unificadas con dos CPU Grace sobre NVLink-C2C.
Especificaciones
1. Especificaciones preliminares. Puede estar sujeto a cambios. 2. Con dispersión.
Primeros pasos
Regístrese para saber cuándo estará disponible NVIDIA Blackwell.