Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
大規模 AI および HPC アプリケーションのための画期的な設計
NVIDIA GH200 Grace Hopper™ Superchip は、大規模 AI とhigh-performance computing (ハイパフォーマンス コンピューティング) アプリケーションのためにゼロから設計された画期的なプロセッサです。このスーパーチップは、テラバイト級のデータを処理するアプリケーションに対して最大 10 倍のパフォーマンスを発揮し、科学者や研究者は、世界で最も複雑な問題に対してこれまで見いだせなかった解決策を導き出せるようになります。
NVIDIA GH200 Grace Hopper Superchip は、NVIDIA® NVLink®-C2C を使用して NVIDIA Grace™ および Hopper™ アーキテクチャを組み合わせ、AI および HPC アプリケーションを加速する CPU+GPU コヒーレント メモリ モデルを提供します。900 ギガバイト/秒 (GB/s) のコヒーレント インターフェイスを備えたこのスーパーチップは、PCIe Gen5 よりも 7 倍高速です。また、HBM3 および HBM3e GPU メモリにより、アクセラレーテッド コンピューティングと生成 AI をさらに強化します。GH200 は、NVIDIA AI Enterprise、HPC SDK、Omniverse™ を含む、すべての NVIDIA ソフトウェア スタックおよびプラットフォームを実行します。
デュアル構成の GH200 Grace Hopper Superchip は、2 基の GH200 Superchip を NVLink 経由で完全接続し、H100 と比較して最大 3.5 倍の GPU メモリ容量と 3 倍の帯域幅を単一サーバーに提供します。
GH200 は現在入手可能です。
NVIDIA GH200 NVL2 は 2 つの GH200 Superchip を NVLink で完全に接続し、最大 288GB の高帯域幅メモリ、10 テラバイト/秒 (TB/s) のメモリ帯域幅、1.2 TB の高速メモリを提供します。現在販売中の GH200 NVL2 は、NVIDIA H100 Tensor コア GPU と比較して、最大 3.5 倍の GPU メモリ容量と 3 倍の帯域幅を単一のサーバーで提供し、コンピューティングとメモリを大量に消費するワークロードに対応します。
こちらのデモでは、NVIDIA GH200 Grace Hopper Superchip と NVIDIA のソフトウェア スタックのシームレスな統合を体験することができます。また、インタラクティブ デモ、実際のアプリケーション、大規模言語モデル (LLM) などの導入事例も紹介しています。
NVIDIA GH200 Grace Hopper Superchip NVIDIA BlueField®-3 OEM 定義の I/O (入出力) と第 4 世代 NVLink
NVIDIA は、パフォーマンスチューニング ガイド、開発者ツール、ライブラリにより NVIDIA Grace のサポートを綿密に行います。