NVIDIA Grace Blackwell GB200

NVIDIA GB200 NVL72

Impulsionando a nova era da IA generativa.

Visão Geral

Desbloqueando Modelos de Trilhões de Parâmetros em Tempo Real

O GB200 NVL72 conecta 36 CPUs Grace e 72 GPUs Blackwell em um design em escala de rack e resfriado por líquido. Ele possui um domínio NVIDIA NVLink™ de 72 GPUs que age como uma GPU única e enorme e oferece uma inferência de grandes modelos de linguagem (LLM) 30 vezes mais rápida em tempo real.

O Superchip GB200 Grace Blackwell é um componente importante do NVIDIA GB200 NVL72, conectando duas GPUs NVIDIA Blackwell Tensor Core de alto desempenho e uma CPU NVIDIA Grace™ usando a interconexão NVLink-C2C às duas GPUs Blackwell.

A Arquitetura em Escala de Rack da Blackwell para Inferência e Treinamento de Trilhões de Parâmetros em Tempo Real

O NVIDIA GB200 NVL72 é um computador exascala em um único rack. Com 36 GB200 interconectados pelo maior domínio NVIDIA® NVLink® já oferecido, o Sistema de Switch NVLink fornece 130 terabytes por segundo (TB/s) de comunicações de GPU de baixa latência para cargas de trabalho de IA e computação de alto desempenho (HPC).

Destaques

Impulsionando a IA de Próxima Geração e a Computação Acelerada

Inferência de LLM

30x

Treinamento LLM

4x

Eficiência Energética

25x

Processamento de Dados

18x

Inferência LLM e eficiência energética: TTL = 50 milissegundos (ms) em tempo real, FTL = 5s, 32.000 entradas/1.000 saídas, NVIDIA HGX™ H100 escalonado sobre InfiniBand (IB) vs. GB200 NVL72, treinamento 1,8T MOE HGX H100 escalonado sobre IB vs. GB200 NVL72 dimensionado sobre IB. Tamanho do cluster: 30.000
Consulta TPC-H 4: GB200 vs. Intel Xeon 8480+
Desempenho projetado sujeito a alterações.

Inferência de LLM em Tempo Real

O GB200 NVL72 introduz recursos de ponta e um Transformer Engine de segunda geração, que permite a IA FP4. Quando acoplado ao NVIDIA NVLink de quinta geração, ele oferece desempenho de inferência de LLM em tempo real 30 vezes mais rápido para modelos de linguagem de trilhões de parâmetros. Esse avanço é possível com uma nova geração de Tensor Cores, que introduzem novos formatos de microescala, otimizados para inferência de IA de alto rendimento e baixa latência. Além disso, o GB200 NVL72 usa NVLink e resfriamento líquido para criar um único rack enorme de 72 GPUs que pode superar os gargalos de comunicação.

Treinamento em Larga Escala

O GB200 NVL72 apresenta um Transformer Engine mais rápido de segunda geração, oferecendo precisão FP8 e permitindo um treinamento notavelmente 4 vezes mais rápido para grandes modelos de linguagem em escala. Esse avanço é complementado pelo NVLink de quinta geração, que fornece 1,8 TB/s de interconexão de GPU para GPU, redes InfiniBand e o software NVIDIA Magnum IO™.

Infraestrutura Eficiente no Consumo de Energia

Os racks GB200 NVL72 com resfriamento líquido reduzem a pegada de carbono e o consumo de energia de um data center. O resfriamento por líquido aumenta a densidade da computação, reduz a quantidade de espaço usado e facilita a comunicação de GPU de alta largura de banda e baixa latência com grandes arquiteturas de domínio NVLink. Em comparação com a infraestrutura NVIDIA H100, o GB200 oferece 25 vezes mais desempenho com a mesma potência, reduzindo o consumo de água.

Processamento de Dados

Os bancos de dados desempenham papéis críticos no manuseio, processamento e análise de grandes volumes de dados para empresas. O GB200 aproveita o desempenho da memória de alta largura de banda, o NVLink-C2C e os mecanismos de descompressão dedicados da arquitetura NVIDIA Blackwell para acelerar as principais consultas de banco de dados em 18 vezes em comparação com a CPU e oferecer um TCO 5 vezes melhor.

NVIDIA GB200 NVL4

NVIDIA GB200 NVL4

O NVIDIA GB200 NVL4 desbloqueia o futuro do HPC e da IA convergentes, oferecendo desempenho revolucionário por meio de uma ponte conectando quatro GPUs NVIDIA NVLink Blackwell unificadas com duas CPUs Grace por meio da interconexão NVLink-C2C. Compatível com os servidores modulares NVIDIA MGX™ resfriados por líquido, ele fornece até o dobro de desempenho para computação científica, IA para treinamento científico e aplicações de inferência em relação à geração anterior.

Características

Avanços Tecnológicos

Arquitetura Blackwell

A arquitetura NVIDIA Blackwell oferece avanços inovadores em computação acelerada, definindo a nova era da computação com desempenho, eficiência e escala incomparáveis.

CPU NVIDIA Grace

A CPU NVIDIA Grace é um processador inovador projetado para data centers modernos executando aplicações de IA, cloud e HPC. Ela fornece desempenho excepcional e largura de banda de memória com 2 vezes a eficiência energética dos principais processadores de servidor da atualidade.

NVIDIA NVLink de Quinta Geração

Desbloquear todo o potencial da computação de exaescala e modelos de IA de trilhões de parâmetros requer comunicação rápida e perfeita entre todas as GPUs de um cluster de servidores. A quinta geração do NVLink é uma interconexão escalável que promove o desempenho acelerado para modelos de IA com trilhões e vários trilhões de parâmetros.

Rede NVIDIA

A rede do data center desempenha um papel crucial em promover os avanços e aumentar o desempenho de IA, servindo como a espinha dorsal para o treinamento de modelos de IA distribuídos e desempenho de IA Generativa. O NVIDIA Quantum-X800 InfiniBand, o NVIDIA Spectrum™-X800 Ethernet e as DPUs NVIDIA® BlueField®-3 permitem escalabilidade eficiente em centenas e milhares de GPUs Blackwell para o desempenho ideal das aplicações.

Fábrica de IA para a Nova Revolução Industrial

NVIDIA Mission Control

O NVIDIA Mission Control simplifica as operações de IA, desde cargas de trabalho até a infraestrutura, com experiência de nível mundial entregue como software. Ele impulsiona os data centers NVIDIA Grace Blackwell, trazendo agilidade instantânea para inferência e treinamento, além de fornecer inteligência full-stack para resiliência da infraestrutura. Com ele, qualquer empresa pode executar IA com eficiência de hiperescala, simplificando e acelerando sua experimentação com IA.

Especificações

Especificações GB200 NVL72

  GB200 NVL72 Superchip GB200 Grace Blackwell
Configuração 36 CPU Grace: GPUs 72 Blackwell 1 CPU Grace: 2 GPUs Blackwell
Núcleo Tensor FP42 1.440 PFLOPS 40 | 20 PFLOPS
Núcleo Tensor FP8/FP62 720 PFLOPS 20 PFLOPS
Núcleo Tensor INT82 720 POPS 20 POPS
FP16/BF16 Tensor Core2 360 PFLOPS 10 PFLOPS
Núcleo Tensor TF322 180 PFLOPS 5 PFLOPS
FP32 5.760 TFLOPS 160 TFLOPS
Núcleo Tensor FP64/FP64 2880 TFLOPS 80 TFLOPS
Memória de GPU | Largura de Banda Até 13,4 TB HBM3e | 576 TB/s Até 372 GB HBM3e | 16 TB/s
Largura de Banda NVLink 130TB/s 3,6TB/s
Contagem de Núcleos de CPU 2.592 núcleos Arm® Neoverse V2 72 núcleos Arm Neoverse V2
Memória de CPU | Largura de Banda Até 17 TB LPDDR5X | Até 14 TB/s Até 480GB LPDDR5X | Até 512 GB/s

NVIDIA GB300 NVL72

O NVIDIA GB300 NVL72 possui 40 vezes mais desempenho de inferência de IA do que as plataformas Hopper, 40 TB de memória rápida e integração de plataforma de rede com SuperNICs NVIDIA ConnectX®-8 usando Quantum-X800 InfiniBand ou Spectrum™-X Ethernet. O Blackwell Ultra proporciona um desempenho revolucionário nas workloads mais complexas, desde sistemas baseados em agentes e lógica até a geração de vídeo em tempo real 30 vezes mais rápida.

Começar

Mantenha-se Atualizado

Inscreva-se para saber quando o NVIDIA Blackwell estiver disponível.