Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
Impulsionando a nova era da IA generativa.
A GB200 NVL72 conecta 36 CPUs Grace e 72 GPUs Blackwell em um design em escala de rack. A GB200 NVL72 é uma solução em escala de rack com refrigeração líquida que possui um domínio NVLink de 72 GPUs que atua como uma única GPU massiva e oferece tempo real 30 vezes mais rápido para inferência LLM de trilhões de parâmetros.
O Superchip GB200 Grace Blackwell é um componente chave do NVIDIA GB200 NVL72, conectando duas GPUs NVIDIA Blackwell Tensor Core de alto desempenho e uma CPU NVIDIA Grace usando a interconexão NVIDIA® NVLink®-C2C às duas GPUs Blackwell.
O NVIDIA GB200 NVL72 é um computador exascala em um único rack. Com 36 GB200s interconectados pelo maior domínio NVIDIA® NVLink® já oferecido, o Sistema de Switch NVLink fornece 130 terabytes por segundo (TB/s) de comunicações de GPU de baixa latência para cargas de trabalho de IA e computação de alto desempenho (HPC).
Destaques
30X vs. GPU Tensor Core NVIDIA H100
4X versus H100
25X versus H100
18X versus CPU
Inferência LLM e eficiência energética: TTL = 50 milissegundos (ms) em tempo real, FTL = 5s, 32.000 entradas/1.000 saídas, NVIDIA HGX™ H100 escalonado sobre InfiniBand (IB) vs. GB200 NVL72, treinamento 1,8T MOE HGX H100 escalonado sobre IB vs. GB200 NVL72 dimensionado sobre IB. Tamanho do cluster: 30.000 Consulta TPC-H 4: GB200 vs. Intel Xeon 8480+ Desempenho projetado sujeito a alterações.
GB200 NVL72 apresenta recursos de ponta e um Transformer Engine de segunda geração que permite IA FP4 e, quando acoplado ao NVIDIA NVLink de quinta geração, oferece desempenho de inferência LLM em tempo real 30 vezes mais rápido para modelos de linguagem de trilhões de parâmetros. Esse avanço é possível com uma nova geração de Tensor Cores, que introduz novos formatos de microescala, proporcionando alta precisão e maior rendimento. Além disso, o GB200 NVL72 usa NVLink e refrigeração líquida para criar um único rack massivo de 72 GPU que pode superar gargalos de comunicação.
O GB200 inclui um Transformer Engine mais rápido com precisão FP8, permitindo um treinamento notável 4 vezes mais rápido para grandes modelos de linguagem em escala. Essa inovação é complementada pelo NVLink de quinta geração, que fornece 1,8 terabytes por segundo (TB/s) de interconexão GPU a GPU, rede InfiniBand e software NVIDIA Magnum IO™.
Os racks GB200 NVL72 com refrigeração líquida reduzem a pegada de carbono e o consumo de energia de um data center. O resfriamento líquido aumenta a densidade computacional, reduz a quantidade de espaço usado e facilita a comunicação de GPU de alta largura de banda e baixa latência com grandes arquiteturas de domínio NVLink. Em comparação com a infraestrutura refrigerada a ar NVIDIA H100, o GB200 oferece 25 vezes mais desempenho com a mesma potência, ao mesmo tempo que reduz o consumo de água.
Os bancos de dados desempenham funções críticas no manuseio, processamento e análise de grandes volumes de dados para empresas. O GB200 aproveita o desempenho da memória de alta largura de banda, NVLink-C2C e mecanismos de descompressão dedicados na arquitetura NVIDIA Blackwell para acelerar as principais consultas ao banco de dados em 18 vezes em comparação com a CPU e fornecer um TCO 5 vezes melhor.
Características
A arquitetura NVIDIA Blackwell oferece avanços inovadores em computação acelerada, definindo a nova era da computação com desempenho, eficiência e escala incomparáveis.
O Superchip NVIDIA Grace CPU é um processador inovador projetado para data centers modernos que executam aplicações de IA, nuvem e computação de alto desempenho (HPC). Ele fornece excelente desempenho e largura de banda de memória com o dobro da eficiência energética dos principais processadores de servidor atuais.
Desbloquear todo o potencial da computação em exaescala e dos modelos de IA de trilhões de parâmetros requer uma comunicação rápida e contínua entre cada GPU em um cluster de servidores. A quinta geração do NVLink é uma interconexão escalável que libera desempenho acelerado para modelos de IA com trilhões e multitrilhões de parâmetros.
A rede do data center desempenha um papel crucial na condução dos avanços e do desempenho da IA servindo como espinha dorsal para o treinamento de modelos de IA distribuídos e o desempenho da IA generativa. NVIDIA Quantum-X800 InfiniBand, NVIDIA Spectrum-X800 Ethernet e as DPUs NVIDIA BlueField-3 permitem escalabilidade eficiente em centenas e milhares de GPUs Blackwell para desempenho ideal de aplicações.
O Superchip NVIDIA GB200 Grace Blackwell NVL4 desbloqueia o futuro da HPC convergente e IA, oferecendo um desempenho revolucionário por meio de quatro GPUs NVIDIA Blackwell conectadas a NVLink™, unificadas com duas CPUs Grace por NVLink-C2C.
Especificações
1. Especificações preliminares. Pode estar sujeito a alterações. 2. Com escassez.
Começar
Inscreva-se para saber quando o NVIDIA Blackwell estiver disponível.