生成 AI の新時代にパワーを与えます。
GGB 200 NVL 72 は、36 基の Grace CPU と、72 基の Blackwell GPU をラックスケールの液冷設計で接続します。72-GPU の NVLink ドメインは、単一の巨大 GPU として機能し、30 倍の高速リアルタイムな兆単位パラメータの大規模言語モデル(LLM)推論を実現します。
GB200 Grace Blackwell Superchip は、NVIDIA GB200 NVL72 の主要コンポーネントであり、2 つの高性能 NVIDIA Blackwell Tensor コア GPU と NVIDIA Grace™ CPU を、 NVIDIA NVLink™-C2C 相互接続を使用して 2 つの Blackwell GPU に接続しています。
ハイライト
LLM 推論とエネルギー効率: TTL = 50ミリ秒 (ms)、FTL = 5s、32,768 入力/1,024 出力、NVIDIA HGX™ H100 を InfiniBand (IB) でスケール vs. GB200 NVL72、トレーニング 1.8T MOE 4096x HGX H100 でスケール IB vs. 456x GB200 NVL72 でスケール IB。クラスター サイズ: 32,768
TPC-H Q4 クエリから派生した Snappy/Deflate 圧縮によるデータベースの結合と集約のワークロード。x86、H100 シングル GPU、および GB200 NLV72 vs. Intel Xeon 8480+ のシングル GPU のカスタム クエリ実装
予想されるパフォーマンスは変更される可能性があります。
特長
NVIDIA GB300 NVL 72 は、Hopper プラットフォームの 40 倍の AI 推論性能、40 TB の高速メモリおよび Quantum-X800 InfiniBand または Spectrum™-X Ethernet を使用する NVIDIA ConnectX®-8 とのネットワーキング プラットフォーム統合を特徴としています。 Blackwell Ultra は、エージェント システム、AI 推論からリアルタイム ビデオ生成まで、最も複雑なワークロードで画期的なパフォーマンスを発揮します。
仕様
GB200 NVL72 | GB200 Grace Blackwell Superchip | |
構成 | 36 Grace CPU : 72 Blackwell GPU | 1 Grace CPU : 2 Blackwell GPU |
FP4 Tensor Core1 | 1,440 PFLOPS | 40 PFLOPS |
FP8/FP6 Tensor Core1 | 720 PFLOPS | 20 PFLOPS |
INT8 Tensor Core1 | 720 POPS | 20 POPS |
FP16/BF16 Tensor コア1 | 360 PFLOPS | 10 PFLOPS |
TF32 Tensor コア | 180 PFLOPS | 5 PFLOPS |
FP32 | 5,760 TFLOPS | 160 TFLOPS |
FP64 | 2,880 TFLOPS | 80 TFLOPS |
FP64 Tensor Core | 2,880 TFLOPS | 80 TFLOPS |
GPU メモリ帯域幅 | 最大 13.4 TB HBM3e | 576 TB/秒 | 最大 372 GB HBM3e | 16 TB/秒 |
NVLink メモリ帯域幅 | 130TB/秒 | 3.6 TB/秒 |
CPU コア数 | 2592 個の Arm® Neoverse V2 コア | 72 Arm Neoverse V2 コア |
CPU メモリ帯域幅 | 最大 17 TB LPDDR5X | 最高 18.4 TB/秒 | 最大 480GB LPDDR5X | 最高 512 GB/秒 |
1. 疎性あり。 |