安定したアップタイムを提供する AI インフラ。
NVIDIA DGX SuperPOD™ と DGX GB200 システムの組み合わせは、兆単位のパラメーター規模の生成 AI モデルのトレーニングと推論向けに設計されています。各水冷ラックは、36 個の NVIDIA GB200 Grace Blackwell Superchip を搭載しており、36 個の NVIDIA Grace CPU と 72 個の Blackwell GPU が NVIDIA NVLink で 1 つに接続されています。複数のラックは NVIDIA Quantum InfiniBand と接続され、GB200 Superchip を数万個まで拡張することができます。
GB200 を搭載した DGX SuperPOD がどのように AI イノベーションを加速させているかをご覧ください。
NVIDIA DGX™ プラットフォームと NVIDIA NeMo™ がどのように業界をリードする企業に力を与えているかをご覧ください。
利点
インテリジェントな制御プレーンは、ハードウェア、ソフトウェア、データ センター インフラの何千ものデータ ポイントを追跡し、正常な動作が継続し、データの整合性が維持されるように取り計らいます。また、メンテナンスを計画し、ダウンタイムを回避するよう、クラスターを自動的に再構成します。
数万個の NVIDIA GB200 Superchip まで拡張可能な DGX GB200 システムを使用した DGX SuperPOD は、最先端の兆単位パラメーター生成 AI モデルでのトレーニングと推論を容易に実行できます。
NVIDIA GB200 Superchips は、それぞれ 1 個の Grace CPU と 2 個の Blackwell GPU を組み合わせ、第 5 世代の NVLink を介して接続され、GPU 間の帯域幅 1.8 テラバイト/秒 (TB/s) を実現します。
関連情報
NVIDIA DGX B200 または DGX H200 システムを使用した NVIDIA DGX SuperPOD は、エンタープライズ AI ワークロードに取り組む大規模開発チームにとって最適な選択です。
NVIDIA エンタープライズ サービスでは、DGX インフラストラクチャを対象とするサポート スペシャリスト、教育スペシャリスト、インフラストラクチャ スペシャリストを手配します。AI 導入のあらゆる段階で NVIDIA のエキスパートが支援するエンタープライズ サービスは、プロジェクトを短期間で成功に導きます。
今すぐ始める
DGX プラットフォームは、あらゆる AI 企業のニーズに対応するさまざまな製品とサービスで構成されています。
NVIDIA DGX は、エンタープライズ AI を構築するための実績のある標準です。
専門的なニーズについては、NVIDIA 製品スペシャリストにご相談ください。
NVIDIA プライバシー ポリシー