Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
コンピューティングの新時代をあらゆるデータ センターにもたらします。
NVIDIA GB200 Grace™ Blackwell NVL2 プラットフォームは、あらゆるデータ センターに新しい時代のコンピューティングをもたらし、2 基の Blackwell GPU と 2 基のGrace CPU を通じて、主流の大規模言語モデル (LLM) 推論、ベクトル データベース検索、データ処理に比類のないパフォーマンスを提供します。スケールアウト型のシングルノード NVIDIA MGX™ アーキテクチャを採用した設計により、さまざまなシステム設計とネットワーキング オプションが可能になり、アクセラレーテッド コンピューティングを既存のデータ センター インフラにシームレスに統合できます。
Computex 2024 では、次の産業革命をリードするために、世界のトップ コンピューター メーカーが NVIDIA と、GB200 NVL2 を含む最新の NVIDIA Blackwell 搭載システムを発表しました。
ハイライト
5 倍vs. NVIDIA H100 Tensor コア GPU
9 倍 vs. H100
18 倍 vs. CPU
Llama3 LLM 推論: トークン間遅延 (TTL) = 50 ミリ秒 (ms) リアルタイム、最初のトークン遅延 (FTL) = 2 秒、入力シーケンス長 = 2.048、出力シーケンス長 = 128 出力、8x NVIDIA HGX™ H100 空冷 vs. GB200 NVL2 空冷シングル ノード、GPU あたりのパフォーマンス比較 NVIDIA Grace CPU と Blackwell GPU が共有するメモリを使用した、RAG パイプライン内のベクトル データベース検索性能。1x x86、1x H100 GPU、および GB200 NVL2 ノードの 1x GPU。 データ処理: TPC-H Q4 クエリから派生した Snappy/Deflate 圧縮によるデータベースの結合および集約ワークロード。GB200 NVL2 ノードからの x86、H100 シングル GU、シングル GPU のカスタム クエリ実装: GB200 vs. Intel Xeon 8480+ 予想されるパフォーマンスは変更される可能性があります。
GB200 NVL2 には、2 基の Grace CPU と 2 基の Blackwell GPU で共有される最大 1.3 テラバイト (TB) の大容量コヒーレント メモリが導入されています。この共有メモリが第 5 世代 NVIDIA®NVLink™ と高速のチップ間 (C2C) 接続と連動し、Llama 3 70B などの主要な言語モデルで 5 倍の高速リアルタイム LLM 推論パフォーマンスを提供します。
GB200 NLV2 は、RAG ベクトル検索操作を最大 9 倍高速化します。Wikipedia データセットのベクトル データベースは 200 ギガバイト (GB) を超えます。また、Grace CPU の 960GB メモリと毎秒 900GB の高速 C2C リンクが利用されることで、低遅延のベクトル検索が大幅に強化されます。
データベースは、企業においては大量のデータの操作、加工、分析において重要な役割を果たします。GB200 NVL2 は高帯域幅のメモリ パフォーマンス、NVLink-C2C、NVIDIA Blackwell アーキテクチャの専用の Decompression Engines を活用し、重要なデータベース クエリを CPU と比較して 18 倍高速化します。
特長
NVIDIA Blackwell アーキテクチャは、アクセラレーテッド コンピューティングに画期的な進歩をもたらし、比類のないパフォーマンス、効率性、スケールでコンピューティングの新時代のパワーになっています。
NVIDIA Grace CPU は、AI、クラウド、ハイパフォーマンス コンピューティング (HPC) アプリケーションを実行する最新のデータ センター向けに設計された画期的なプロセッサです。現代の主要なサーバー プロセッサと比べて電力効率が 2 倍となり、パフォーマンスとメモリ帯域幅に優れています。
NVIDIA NVLink-C2C は、各 Grace CPU と Blackwell GPU を 900GB/秒 でコヒーレントに相互接続します。GB200 NVL2 は、NVLink-C2C と第 5 世代 NVLink の両方を使用し、AI を加速するための 1.4 TB コヒーレント メモリ モデルを提供します。
キーバリュー (KV) キャッシングは、会話のコンテキストと履歴を保持することにより、LLM の応答速度を向上させます。GB200 NVL2 は、PCIe より 7 倍高速な NVLink-C2C で接続された完全にコヒーレントな Grace GPUと Blackwell GPU メモリを通して KV キャッシングを最適化し、LLM が x86 ベースの GPU 実装より高速に単語を予測できるようにします。
エクサスケール コンピューティングや兆単位パラメーターの AI モデルの可能性を最大限に引き出すには、サーバー クラスター内のすべての GPU 間で高速かつシームレスな通信が必要となります。第 5 世代の NVLink はスケールアップ インターコネクトであり、1 兆から数兆単位のパラメーターの AI モデルでパフォーマンスを高速化します
データ センターのネットワークは、分散 AI モデルのトレーニングと生成 AI パフォーマンスのバックボーンとして機能し、AI の進化とパフォーマンスを推進する上で重要な役割を果たします。NVIDIA Quantum-X800 InfiniBand、NVIDIA Spectrum™-X800 Ethernet、NVIDIA BlueField®-3 DPUs は、数百から数千単位の Blackwell GPU で効率的なスケーラビリティを可能にし、アプリケーション パフォーマンスを最適化します。
仕様
1 参考仕様。変更される場合があります。 2 疎性あり。
NVIDIA GB200 NVL72 は 1 つのラックスケール デザインで 36 個の GB200 Superchip を接続します。 GB200 NVL72 は水冷式のラックスケール ソリューションであり、72-GPU NVLink ドメインが 1 基の大きな GPU として機能します。
今すぐ始める
登録すると、NVIDIA Blackwell の販売開始時にお知らせいたします。