Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
世界をリードする AI コンピューティング プラットフォーム。
AI、複雑なシミュレーション、大規模なデータセットには、非常に高速な相互接続と完全に高速化されたソフトウェア スタックを備えた複数の GPU が必要になります。NVIDIA HGX™ AI スーパーコンピューティング プラットフォームは、NVIDIA GPU、NVLink®、NVIDIA ネットワーク、完全に最適化された AI およびハイパフォーマンス コンピューティング (HPC) ソフトウェアスタックのフルパワーを結集し、アプリケーション パフォーマンスを最大化し、インサイトが得られるまでの時間を最短化します。
NVIDIA HGX B200 と HGX B100 は NVIDIA Blackwell Tensor コア GPU と高速相互接続を統合し、データ センターを新しい時代に押し上げます。Blackwell ベースの HGX システムは、推論性能が前世代の最大 15 倍となるプレミア アクセラレーテッド スケールアップ プラットフォームであり、処理要求が非常に厳しい生成 AI、データ分析、HPC のワークロード向けに設計されています。
NVIDIA HGX H200 は H200 Tensor コア GPU と高速接続を組み合わせ、あらゆるデータ センターに非常に優れたパフォーマンス、スケーラビリティ、セキュリティを届けます。最大 8 基の GPU という構成はかつてない高速化を実現し、32 PFLOPS という圧倒的なパフォーマンスと組み合わされることで、AI および HPC 向けの世界で最もパワフルでスケールアップしたアクセラレーテッド サーバー プラットフォームとなります。
HGX H200 と HGX H100 の両方には、高度なネットワーキング オプションが含まれ、そのスピードは最高で 400 ギガビット/秒 (Gb/s) になります。NVIDIA Quantum-2 InfiniBand と Spectrum™-X Ethernet を活用し、最高の AI パフォーマンスを提供します。HGX H200 と HGX H100 には、NVIDIA® BlueField®-3 データ プロセシング ユニット (DPU) も搭載されており、ハイパースケール AI クラウドでクラウド ネットワーキング、コンポーザブル ストレージ、ゼロトラスト セキュリティ、GPU コンピューティングの順応性を実現します。
予想されるパフォーマンスは変更される可能性があります。トークン間のレイテンシ (TTL) = 50 ミリ秒 (ms) リアルタイム、最初のトークンのレイテンシ (FTL) = 5s、入力シーケンス長 = 32,768、出力シーケンス長 = 1,028、8x 8ウェイ NVIDIA HGX™ H100 GPU 空冷と 1x 8ウェイ HGX B200 空冷の比較、GPU ごとのパフォーマンス比較。
HGX B200 は、GPT-MoE-1.8T などの巨大なモデルで、前世代の NVIDIA Hopper™ と比較して最大 15 倍の推論パフォーマンスに達しますこの第 2 世代の Transformer Engine ではカスタムの Blackwell Tensor コア テクノロジと革新的な TensorRT™-LLM および Nemo™ フレームワークを組み合わせ、大規模言語モデル (LLM) と混合エキスパート (MoE) モデルの推論を加速します。
予想されるパフォーマンスは変更される可能性があります。32,768 GPU スケール、4,096x 8ウェイ HGX H100 空冷クラスター: 400G InfiniBand (IB) ネットワーク、4,096x 8ウェイ HGX B200 空冷クラスター: 400G IB ネットワーク。
この第 2 世代の Transformer Engine は 8 ビットの浮動小数点 (FP8) と新しい精度を備え、GPT-MoE-1.8T などの大規模言語モデルで驚異的な 3 倍の速さでのトレーニングを可能にします。このブレイクスルーを補完するのが第 5 世代の NVLink、1.8TB/秒 の GPU 間相互接続、InfiniBand ネットワーキング、NVIDIA Magnum IO™ ソフトウェアです。これらを組み合わせることで、企業や広範囲の GPU コンピューティング クラスターで効率的なスケーラビリティが実現します。
データ センターはコンピューティングにおける新しい単位であり、ネットワーキングはデータ センター全体にわたってアプリケーションのパフォーマンスをスケーリングする上で不可欠な役割を果たします。NVIDIA Quantum InfiniBand と組み合わせることで、HGX は世界最高水準のパフォーマンスと効率性を実現し、コンピューティング リソースを最大限に活用します。
イーサネットを導入する AI クラウド データ センターでは、HGX を NVIDIA Spectrum-X ネットワーキング プラットフォームと共に使用するのが最適です。このプラットフォームは 400Gb/秒 イーサネット上で最高の AI パフォーマンスを発揮します。NVIDIA Spectrum™-4 スイッチと BlueField-3 DPU を備えた Spectrum-X は、最適なリソース使用率とパフォーマンス分離により、規模を問わず、数千の同時 AI ジョブに対して一貫した予測可能な成果を提供します。Spectrum-X は、高度なクラウド マルチテナンシーとゼロトラスト セキュリティを可能にします。 NVIDIA Spectrum-X のリファレンス デザインとして、NVIDIA は Israel-1 を設計しました。これは NVIDIA HGX H200 または H100 8 基の GPU プラットフォーム、BlueField-3 DPU、Spectrum-4 スイッチをベースとする Dell PowerEdge XE9680 サーバーで構築されたハイパースケールの生成 AI スーパーコンピューターです。
Quantum-2 スイッチ、ConnectX-7 アダプター、BlueField-3 DPU
Spectrum-4 スイッチ、 BlueField-3 DPU、 Spectrum-X ライセンス
Spectrum スイッチ、ConnectX アダプター、BlueField DPU
NVIDIA HGX は、4 基の H200 または H100 GPU もしくは 8 基の H200、H100、B200、B100 GPU を備えたシングル ベースボードで利用できます。ハードウェアとソフトウェアのこのパワフルな組み合わせは、かつてない AI スーパーコンピューティング性能の基礎を築きます。
* 疎性あり
NVIDIA H200 Tensor コア GPU の詳細を見る。