NVIDIA Grace Blackwell GB200

NVIDIA GB200 NVL72

生成 AI の新時代にパワーを与えます。

リアルタイムの兆単位パラメーター モデルを解放する

GGB 200 NVL 72 は、36 基の Grace CPU と、72 基の Blackwell GPU をラックスケールの液冷設計で接続します。72-GPU の NVLink ドメインは、単一の巨大 GPU として機能し、30 倍の高速リアルタイムな兆単位パラメータの大規模言語モデル(LLM)推論を実現します。

GB200 Grace Blackwell Superchip は、NVIDIA GB200 NVL72 の主要コンポーネントであり、2 つの高性能 NVIDIA Blackwell Tensor コア GPU と NVIDIA Grace™ CPU を、 NVIDIA NVLink™-C2C 相互接続を使用して 2 つの Blackwell GPU に接続しています。

Blackwell のラックスケール アーキテクチャによる兆単位パラメーターのリアルタイムの推論とトレーニング

NVIDIA GB200 NVL72 は 1 つのラックに収められたエクサスケール コンピューターです。史上最大の NVIDIA® NVLink® ドメインで 36 個の GB200 が相互接続される NVLink Switch System は、AI ワークロードと HPC (ハイパフォーマンス コンピューティング) ワークロードで毎秒 130 テラバイトの低遅延 GPU 通信を提供します。

ハイライト

次世代の AI とアクセラレーテッド コンピューティングをスーパーチャージ

LLM 推論

30 倍

LLM トレーニング

4 倍

電力効率

25 倍

データ処理

18 倍

LLM 推論とエネルギー効率: TTL = 50ミリ秒 (ms)、FTL = 5s、32,768 入力/1,024 出力、NVIDIA HGX™ H100 を InfiniBand (IB) でスケール vs. GB200 NVL72、トレーニング 1.8T MOE 4096x HGX H100 でスケール IB vs. 456x GB200 NVL72 でスケール IB。クラスター サイズ: 32,768
TPC-H Q4 クエリから派生した Snappy/Deflate 圧縮によるデータベースの結合と集約のワークロード。x86、H100 シングル GPU、および GB200 NLV72 vs. Intel Xeon 8480+ のシングル GPU のカスタム クエリ実装
予想されるパフォーマンスは変更される可能性があります。

リアルタイム LLM 推論のパフォーマンス チャート

リアルタイム LLM 推論

GB200 NVL72 は、FP4 AI を可能にする最先端の機能と第2世代の Transformer エンジンを導入しています。第5世代の NVIDIA NVLink と組み合わせることで、兆単位パラメータ言語モデルにおいて 30 倍高速なリアルタイム LLM 推論性能を発揮します。この進歩は、新しいマイクロスケーリング フォーマットを導入し、高精度とスループットの向上を提供する新世代の Tensor コアによって実現可能になりました。さらに、GB200 NVL72 は、NVLink と液冷を使用し、通信のボトルネックを克服できる1つの巨大な 72 GPU ラックを作成します。

大規模トレーニング パフォーマンス チャート

大規模トレーニング

GB200 NVL72 には、FP8 精度を特徴とするより高速な第2世代のトランスフォーマー エンジンが搭載されており、大規模言語モデルでの学習を 4 倍高速化することができます。このブレークスルーは、1.8 TB/秒の GPU 間相互接続、InfiniBand ネットワーク、NVIDIA Magnum IO™ ソフトウェアを提供する第5世代の NV Link によって支えられています。

エネルギー効率に優れたインフラのパフォーマンス チャート

エネルギー効率に優れたインフラ

液冷 GB200 NVL72 ラックは、データ センターの二酸化炭素排出量とエネルギー消費を削減します。液冷により計算密度が向上し、使用する床面積は削減され、大規模な NVLink ドメイン アーキテクチャによる高帯域幅、低遅延の GPU 通信が可能になります。NVIDIA H100 空冷インフラと比較して、GB200 は同じ電力で 25 倍の性能を発揮し、水の消費量を削減します。

データ処理パフォーマンス チャート

データ処理

データベースは、企業の大量のデータの操作、加工、分析において重要な役割を果たします。GB200 は、高帯域幅メモリ性能の NVLink-C2CNVIDIA Blackwell アーキテクチャの専用 Decompression Engine を活用し、CPU と比較して重要なデータベース クエリを 18 倍高速化し、TCO を 5 倍にします。

特長

技術的なブレイクスルー

Blackwell Architecture AI Icon

Blackwell アーキテクチャ

NVIDIA Blackwell アーキテクチャは、アクセラレーテッド コンピューティングに画期的な進歩をもたらし、比類のないパフォーマンス、効率性、スケールでコンピューティングの新時代を強化します。

Grace CPU Icon

NVIDIA Grace CPU

NVIDIA Grace CPU は、AI、クラウド、ハイパフォーマンス コンピューティング (HPC) アプリケーションを実行する最新のデータ センター向けに設計された画期的なプロセッサです。現代の主要なサーバー プロセッサと比べて電力効率が 2 倍となり、パフォーマンスとメモリ帯域幅に優れています。

NVSwitch Icon

第 5 世代 NVIDIA NVLink

エクサケール コンピューティングと 1 兆パラメータ AI モデルの可能性を最大限に引き出すためには、サーバー クラスター内のすべての GPU 間における迅速かつスムーズな通信が不可欠です。第5世代の NVLink は、兆単位パラメータ AI モデル向けに加速されたパフォーマンスを発揮するスケールアップ型相互接続です。

NVIDIA Networking DPU Icon

NVIDIA ネットワーキング

データ センターのネットワークは、AI の進歩とパフォーマンスを推進するうえで重要な役割を果たし、分散 AI モデルのトレーニングと生成 AI のパフォーマンスを支えるバックボーンとして機能します。NVIDIA Quantum-X800 InfiniBandNVIDIA Spectrum™-X 800 Ethernet、および NVIDIA® BlueField®-3 DPU は、数百から数千の Blackwell GPU におよぶ効率的な拡張性を実現し、最適なアプリケーション性能を実現します。

新産業革命のための AI ファクトリー

NVIDIA GB300 NVL72

NVIDIA GB300 NVL 72 は、Hopper プラットフォームの 40 倍の AI 推論性能、40 TB の高速メモリおよび Quantum-X800 InfiniBand または Spectrum™-X Ethernet を使用する NVIDIA ConnectX®-8 とのネットワーキング プラットフォーム統合を特徴としています。 Blackwell Ultra は、エージェント システム、AI 推論からリアルタイム ビデオ生成まで、最も複雑なワークロードで画期的なパフォーマンスを発揮します。

NVIDIA GB300 NVL72

仕様

GB200 NVL72 の仕様

  GB200 NVL72 GB200 Grace Blackwell Superchip
構成 36 Grace CPU : 72 Blackwell GPU 1 Grace CPU : 2 Blackwell GPU
FP4 Tensor Core1 1,440 PFLOPS 40 PFLOPS
FP8/FP6 Tensor Core1 720 PFLOPS 20 PFLOPS
INT8 Tensor Core1 720 POPS 20 POPS
FP16/BF16 Tensor コア1 360 PFLOPS 10 PFLOPS
TF32 Tensor コア 180 PFLOPS 5 PFLOPS
FP32 5,760 TFLOPS 160 TFLOPS
FP64 2,880 TFLOPS 80 TFLOPS
FP64 Tensor Core 2,880 TFLOPS 80 TFLOPS
GPU メモリ帯域幅 最大 13.4 TB HBM3e | 576 TB/秒 最大 372 GB HBM3e | 16 TB/秒
NVLink メモリ帯域幅 130TB/秒 3.6 TB/秒
CPU コア数 2592 個の Arm® Neoverse V2 コア 72 Arm Neoverse V2 コア
CPU メモリ帯域幅 最大 17 TB LPDDR5X | 最高 18.4 TB/秒 最大 480GB LPDDR5X | 最高 512 GB/秒

今すぐ始める

最新情報を受け取る

登録すると、NVIDIA Blackwell の販売開始時にお知らせいたします。

Select Location
Middle East