AI の発展を見据えた専用設計
NVIDIA DGX SuperPOD™ は、IT 部門があらゆるユーザーとワークロードに妥協のないパフォーマンスを提供できるようにする、AI データセンター インフラです。NVIDIA DGX™ プラットフォームは、きわめて困難な AI ワークロードに対して、最高クラスのアクセラレーテッド インフラとスケーラブルなパフォーマンスを提供しており、業界で評価されています。
DGX SuperPOD は、パフォーマンスおよび信頼性に対するエンタープライズのニーズを満たす、予測性の高いソリューションです。NVIDIA は、DGX SuperPOD を広範にテストし、企業における AI ワークロードの要求に対応できるまでその性能を高めているため、アプリケーションのパフォーマンスに関して心配する必要はありません。
DGX SuperPOD は、AI ワークフロー管理、コンピューティング、ストレージ、ネットワーク インフラを高速化するライブラリ、AI ワークロードに最適化されたオペレーティング システムを含む実証済みのソフトウェアである NVIDIA Base Command™ を採用しています。
NVIDIA Base Command Manager により、DGX SuperPOD のデプロイ、ソフトウェア プロビジョニング、継続的な監視、正常性チェックをシームレスに自動化します。
DGX SuperPOD では、専任の専門家が、導入から、インフラ管理、ワークロードの拡張、本番 AI の合理化まで、すべてを支援します。AI に精通したメンバーで構成される世界最大のチームに直接相談できる「DGXpert」もご利用いただけます。
NVIDIA DGX SuperPOD は、ワールドクラスのコンピューティング、ソフトウェア ツール、専門知識、継続的なイノベーションをシームレスに利用できるようにするターンキー AI データ センター ソリューションを企業に提供します。DGX SuperPOD には 2 つのアーキテクチャ オプションがあり、あらゆる企業が AI をビジネスに統合し、プラットフォームの複雑さに悩まされることなく、革新的なアプリケーションを開発できるようにします。
NVIDIA DGX B200 システムを搭載した DGX SuperPOD は、スケーラブルなインフラに最適であり、大規模な言語モデルの構築、サプライチェーンの最適化、大量のデータからのインテリジェンスの抽出など、複雑で多様な AI ワークロードを抱えるあらゆる規模の企業チームをサポートできます。
NVIDIA DGX H200 システムを搭載した DGX SuperPOD は、NVIDIA NeMo フレームワークによる LLM やディープ ラーニングによるレコメンダー システムなど、大規模かつ高度に複雑な、あるいは Transformer ベースの AI ワークロードをサポートするスケーラブルなインフラに最適です。
DGX SuperPOD と DGX GB200 を組み合わせたシステムは、水冷式のラックスケール AI インフラであり、NVIDIA GB200 Grace Blackwell Superchips を搭載しています。数兆パラメーター規模の生成 AI モデルをトレーニングし、推論するためのインテリジェントな予測管理機能を備えています。
業界をリードするストレージ テクノロジ プロバイダーとの協力により、NVIDIA DGX SuperPOD ではリファレンス アーキテクチャ ソリューションのポートフォリオが利用可能です。これらのソリューションは NVIDIA パートナー ネットワークを通じてすぐにデプロイ可能な完全統合型サービスとして提供されており、これらのソリューションを活用することにより、データ センターの AI インフラの設計、デプロイ、管理をよりシンプルかつ迅速に行うことができます
NVIDIA DGX SuperPOD は、厳選されたベンダーの高性能ストレージを含む完全な AI インフラストラクチャ ソリューションであり、最も要求の厳しい AI ワークロードを処理するよう、NVIDIA によって厳格に試験および認定されています。