NVIDIA DGX B200

NVIDIA DGX B200

AI ファクトリーの基盤。

進化するイノベーションに支えられた革命的なパフォーマンス

NVIDIA DGX™ B200 は、AI 導入のあらゆる段階にある企業に規模を問わず対応する、開発から展開までのパイプラインを構築する統合型 AI プラットフォームです。第 5 世代 NVIDIA® NVLink™ で相互接続された 8 個の NVIDIA Blackwell GPU を搭載する NVIDIA DGX B200 は、前世代のシステムと比較して 3 倍のトレーニング パフォーマンス、15 倍の推論パフォーマンスを実現します。NVIDIA Blackwell アーキテクチャを採用し、DGX B200 は大規模言語モデル、レコメンダー システム、チャットボットなど、多様なワークロードに対応できるため、AI による変革を加速したい企業に最適です。

あらゆるワークロードに対応する AI インフラ

NVIDIA DGX B200 により、データ準備からトレーニング、推論に至るまで、企業があらゆる AI ワークロードをどのように加速できるのかをご覧ください。

企業の導入成功事例

NVIDIA DGX プラットフォームNVIDIA NeMo™ が世界の先進企業をいかに変革したかをご覧ください。

利点

統合された AI ファクトリー

装飾イメージ

開発からデプロイまでのパイプラインに対応する単一のプラットフォーム

企業は、トレーニングからファインチューニング、推論に至る AI パイプラインのあらゆる段階で複雑な AI データセットを処理するため、膨大な量の計算能力を必要としています。NVIDIA DGX B200 により、企業はワークフローを加速するために構築された単一のプラットフォームで開発者を支援できます。

装飾イメージ

AI パフォーマンスのパワーハウス

NVIDIA Blackwell アーキテクチャの進歩したコンピューティング性能に支えられた DGX B200 は、DGX H100 と比較して 3 倍のトレーニング パフォーマンス、15 倍の推論パフォーマンスを実現します。NVIDIA DGX BasePOD™NVIDIA DGX SuperPOD™ の基盤として、DGX B200 はあらゆるワークロードに最先端のパフォーマンスをもたらします。

装飾イメージ

実証されたインフラストラクチャの標準テクノロジ

NVIDIA DGX B200 は、NVIDIA Base Command および NVIDIA AI Enterprise ソフトウェアを含む完全な NVIDIA AI ソフトウェア スタック、サードパーティのエコシステムによるサポート、NVIDIA プロフェッショナル サービスを通じた専門的アドバイスへのアクセスなどで構成される、完全に最適化されたハードウェアとソフトウェアのプラットフォームです。

パフォーマンス

NVIDIA DGX B200 搭載による次世代のパフォーマンス

リアルタイムの大規模言語モデル推論

GPT-MoE-1 BT のリアルタイム スループット

予想パフォーマンスは変更される場合があります。トークン間レイテンシ (TTL) = 50 ミリ秒リアルタイム、ファースト トークン レイテンシ (FTL) = 5 秒、入力シーケンス長 = 32,768、出力シーケンス長 = 1,028、8 倍の 8 ウェイ NVIDIA DGX H100 GPU 空冷式と 1 倍の 8 ウェイ NVIDIA DGX B200 空冷式 (GPU あたりのパフォーマンス比較)。

AI トレーニングのパフォーマンスを強化

GPT-MoE-1 BT モデルによるトレーニングの高速化

予想パフォーマンスは変更される場合があります。32,768 GPU スケール、4,096 x 8 ウェイ NVIDIA DGX H100 空冷クラスター:400G IB ネットワーク、4,096 x 8 ウェイ NVIDIA DGX B200 空冷クラスター: 400G IB ネットワーク。

仕様

NVIDIA DGX B200 仕様詳細

GPU 8 基 の NVIDIA B200 Tensor コア GPU
GPU メモリ 合計 1,440GB の GPU メモリ
パフォーマンス 72 petaFLOPS の FP8 トレーニングと 144 petaFLOPS の FP4 推論
消費電力 最大 14.3kW
CPU 2 個の Intel® Xeon® Platinum 8570 プロセッサ
合計 112 コア、2.1 GHz (ベース)、
4 GHz (最大ブースト)
システム メモリ 最大 4TB
ネットワーキング 4 基の OSFP ポートで 8 基のシングルポートを提供する NVIDIA ConnectX-7 VPI
  • 最大 NVIDIA 400Gb/秒の InfiniBand/Ethernet
2 個のデュアルポート QSFP112 NVIDIA BlueField-3 DPU
  • 最大 NVIDIA 400Gb/秒の InfiniBand/Ethernet
管理ネットワーク 10Gb/秒のオンボード NIC (RJ45 搭載)
100Gb/秒のデュアルポート イーサネット NIC
ホスト BMC (ベースボード管理コントローラー、RJ45 搭載)
ストレージ OS: 2 個の 1.9TB NVMe M.2
内部ストレージ: 8 個の 3.84TB NVMe U.2
ソフトウェア NVIDIA AI Enterprise: 最適化された AI ソフトウェア
NVIDIA Base Command™: オーケストレーション、スケジューリング、クラスター管理
NVIDIA DGX OS / Ubuntu: オペレーティング システム
ラック ユニット (RU) 10 RU
システム サイズ 高さ: 17.5in (444mm)
幅: 19.0in (482.2mm)
長さ: 35.3in (897.1mm)
運用温度 5–30°C (41–86°F)
企業向けサポート ハードウェアとソフトウェアの 3 年間のエンタープライズ Business-Standard サポート
年中無休のエンタープライズ サポート ポータル アクセス
現地営業時間中のライブ エージェント サポート

関連情報

あらゆる企業に AI ファクトリーを提供

NVIDIA DGX SuperPOD

NVIDIA DGX SuperPOD™ は、あらゆるユーザーとワークロードに妥協のないパフォーマンスを提供するターンキー AI データセンター インフラ ソリューションです。あらゆる NVIDIA DGX システムで構成可能な DGX SuperPOD は、業界実証済みの結果を持つ、最も要求の厳しい AI トレーニングと推論ワークロードのためのスケーラブルなパフォーマンスを備えたリーダーシップクラスの高速インフラストラクチャを提供し、妥協のないパフォーマンスを実現します。

企業でのデプロイに適した AI インフラ
NVIDIA Mission Control

NVIDIA Mission Control の紹介

NVIDIA Mission Control は、ワークロードからインフラまで AI ファクトリーの運用を効率化し、世界クラスの専門知識をソフトウェアとして提供します。 NVIDIA Blackwell データセンターを強化し、推論とトレーニングのための即時の俊敏性をもたらすとともに、インフラの回復力のためのフルスタックインテリジェンスを提供します。 あらゆる企業がハイパースケールの効率性で AI を運用でき、AI 実験を簡素化し加速することができます。

NVIDIA DGX プラットフォームの価値を最大化

NVIDIA エンタープライズ サービスは、NVIDIA DGX インフラ向けにサポート、教育、プロフェッショナル サービスを提供します。AI 導入のあらゆる段階を支援できる NVIDIA エキスパートにより、エンタープライズ サービスはお客様のプロジェクトを迅速かつ確実に立ち上げ、実行するお手伝いをします。

DGX プラットフォーム向け NVIDIA エンタープライズ サポート サービス
NVIDIA DGX 向け DLI

NVIDIA DGX のお客様限定トレーニング特典を受け取る

NVIDIA Deep Learning Institute (DLI) の AI エキスパートが、NVIDIA DGX のお客様限定で特別に提供するこの技術トレーニングでは、AI で最先端のブレークスルーをより速く達成する方法を学びます。

今すぐ始める

次のステップ

NVIDIA DGX プラットフォームの購入をご検討ですか?

NVIDIA DGX プラットフォームは、あらゆる AI 企業のニーズに適合する、幅広く多様な製品とサービスで構成されています。

NVIDIA DGX プラットフォームの利点を探る

NVIDIA DGX は、エンタープライズ AI 構築の実証された標準基盤です。

NVIDIA DGX システムドキュメント

大規模な生成 AI ワークロードに世界クラスのパフォーマンスを提供する NVIDIA DGX システムのドキュメントにアクセスしてください。

Select Location
Middle East