AI センター オブ エクセレンスの基盤
NVIDIA DGX™ B200 は、企業規模を問わず、AI 導入のどの段階においても、パイプラインの開発から導入までを可能にする統合 AI プラットフォームです。 第 5 世代の NVIDIA® NVLink® で相互接続された 8 基の NVIDIA B200 Tensor コア GPU を搭載した DGX B200 は、前世代と比較してトレーニング性能は 3 倍、推論性能は 15 倍の最先端の性能を提供します。NVIDIA Blackwell GPU アーキテクチャを採用した DGX B200 は、大規模言語モデル、レコメンダー システム、チャットボットなどの多様なワークロードを処理することができ、AI トランスフォーメーションの加速を目指す企業に最適です。
DGX B200 を活用してデータの準備からトレーニング、推論に至るあらゆる AI ワークロードをどのように高速化するかをご覧ください。
NVIDIA DGX™ プラットフォームと NVIDIA NeMo™ がどのように業界をリードする企業に力を与えているかをご覧ください。
利点
企業は、トレーニングからファインチューニングに推論まで、AI パイプラインのあらゆる段階で複雑な AI データセットを処理するために膨大な計算処理能力を必要とします。NVIDIA DGX B200 があれば、ワークフローを高速化するように作られた 1 つのプラットフォームを企業は開発者に与えることができます。
NVIDIA Blackwell アーキテクチャの高度なコンピューティングを活用する DGX B200 は、DGX H100 と比較してそのトレーニング パフォーマンスが 3 倍、推論パフォーマンスが 25 倍となります。NVIDIA DGX BasePOD™ や NVIDIA DGX SuperPOD™ の土台である DGX B200 は、業界をリードするパフォーマンスをあらゆるワークロードに提供します。
DGX B200 は、NVIDIA Base Command および NVIDIA AI Enterprise ソフトウェアを含む完全な NVIDIA AI ソフトウェア スタック、豊富なサードパーティ サポートのエコシステム、および NVIDIA プロフェッショナル サービスによる専門家のアドバイスへのアクセスを含む、完全に最適化されたハードウェアおよびソフトウェア プラットフォームです。
パフォーマンス
予想されるパフォーマンスは変更される可能性があります。トークン間のレイテンシ (TTL) = 50ms リアルタイム、最初のトークンのレイテンシ (FTL) = 5ms、入力シーケンスの長さ = 32,768、出力シーケンスの長さ = 1,028、8x 8ウェイ HGX H100 GPU 空冷と 1x 8ウェイ DGX B200 空冷の比較、GPU あたりのパフォーマンス比較。
予想されるパフォーマンスは変更される可能性があります。32,768 GPU スケール、4,096x 8ウェイ DGX H100 空冷クラスター: 400G IB ネットワーク、4,096x 8ウェイ DGX B200 空冷クラスター: 400G IB ネットワーク。
仕様
関連情報
DGX B200 上に構築された NVIDIA DGX SuperPOD™ は、業界をリードする企業が NVIDIA の AI 専門知識に支えられた大規模なターンキー インフラストラクチャを導入できるようにします。
NVIDIA エンタープライズ サービスは、DGX インフラストラクチャ向けのサポート、教育、プロフェッショナル サービスを提供します。AI 導入のあらゆる段階で NVIDIA のエキスパートが支援するエンタープライズ サービスは、プロジェクトを短期間で成功に導きます。
NVIDIA Deep Learning Institute (DLI) の AI エキスパートから、AI による最先端のブレイクスルーを短期間に達成する方法と、 DGX のお客様に提供する特別なテクニカル トレーニングを学ぶ方法をご覧ください。
今すぐ始める
DGX プラットフォームは、あらゆる AI 企業のニーズに対応するさまざまな製品とサービスで構成されています。
NVIDIA DGX は、エンタープライズ AI を構築するための実績のある標準です。
専門的なニーズについては、NVIDIA 製品スペシャリストにご相談ください。