2024 年 10 月 15 日、カリフォルニア州サンノゼ — OCP Global Summit — NVIDIA は本日、オープンで、効率性と拡張性に優れたデータセンター テクノロジの開発を推進するために、NVIDIA Blackwell アクセラレーテッド コンピューティング プラットフォーム設計の基盤要素を Open Compute Project (OCP) に寄与するとともに、OCP 規格に対する Spectrum-X™ の対応を拡大すると発表しました。
今年の OCP Global Summit で、NVIDIA は、ラック アーキテクチャ、コンピュート トレイとスイッチ トレイのメカニズム、液冷および熱環境の仕様、ならびに NVIDIA NVLink™ ケーブル カートリッジの容量を含む、NVIDIA GB200 NVL72 システムの電気機械設計の主要部分を OCP コミュニティと共有し、より高い演算密度とネットワーキング帯域幅への対応を可能にします。
NVIDIA はすでに、NVIDIA HGX™ H100 ベースボードの設計仕様を含む、複数のハードウェア世代にわたる正式な貢献を OCP に行っており、エコシステムが世界のコンピューターメーカーの製品から幅広い選択をできるようにするとともに、AI の導入を推進しています。
さらに、NVIDIA Spectrum-X イーサーネット ネットワーク プラットフォームと OCP コミュニティが開発した仕様との連携を強化することにより、OCP 認定機器を採用している AI ファクトリーは潜在的な性能を発揮しながら、投資を活かし、ソフトウェアの一貫性を維持できるようになります。
NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は、次のように述べています。「OCP との 10 年間にわたるコラボレーションを踏まえ、NVIDIA は業界のリーダー企業とともに、データセンター全体で広く採用できる仕様と設計を生み出しています。オープンな規格を発展させることで、世界中の組織はアクセラレーテッド コンピューティングの潜在能力を最大限に活用し、未来の AI ファクトリーを造れるように支援しています」
次の産業革命を推進するアクセラレーテッド コンピューティング プラットフォーム
NVIDIA のアクセラレーテッド コンピューティング プラットフォームは、新しい時代の AI を活用するために設計されました。
GB200 NVL72 は NVIDIA MGX™ モジュラー アーキテクチャに基づいており、これによって、コンピューター メーカーは大規模なデータセンター インフラ設計をすばやく、費用効果の高い方法で構築できるようになります。
この液冷システムは、ラックスケール設計で 36 基の NVIDIA Grace™ CPU と 72 基の NVIDIA Blackwell GPU を接続しています。72 基の GPU で構成されている NVIDIA NVLink により、システムが単一の強力な GPU として機能し、1 兆パラメーターの大規模言語モデルでのリアルタイム推論が NVIDIA H100 Tensor コア GPU より 30 倍速くなります。
NVIDIA Spectrum-X イーサネット ネットワーキング プラットフォームには、次世代の NVIDIA ConnectX-8 SuperNIC™ が実装されるようになり、OCP の Switch Abstraction Interface (SAI) と Software for Open Networking in the Cloud (SONiC) 規格に対応します。これにより、お客様は、Spectrum-X のアダプティブ ルーティングとテレメトリベースの輻輳制御を使って、スケールアウト AI インフラでのイーサネット性能を加速できます。
ConnectX-8 SuperNIC には、速度が最大 800Gb/秒 のアクセラレーテッド ネットワーキング、ならびに大規模な AI ワークロードに最適化された、プログラマブルなパケット処理エンジンが実装されています。OCP 3.0 向けの ConnectX-8 SuperNIC は来年提供予定となっており、これによって組織は柔軟性に優れたネットワークを構築できるようになります。
データセンターに必要不可欠なインフラ
世界は汎用コンピューティングから、アクセラレーテッドおよび AI コンピューティングへの移行を進めており、データセンター インフラはますます複雑化しています。開発プロセスを簡略化するために、NVIDIA は AI ファクトリーを構築するための主要コンポーネントを提供している、40 を超える世界的電子機器メーカーと密接に連携しています。
また、多様なパートナーが Blackwell プラットフォームを活用してイノベーションを起こそうとしています。そのようなパートナーには Meta も含まれており、同社は GB200 NVL72 をベースにした Catalina AI ラック アーキテクチャを OCP に貢献する予定です。これによって、コンピューター メーカーは演算密度の高いシステムを柔軟に構築できるようになり、データセンターにより高度な性能とエネルギー効率を求める声に応えられるになります。
Meta のエンジニアリング担当 VP のYee Jiun Song氏は、次のように話しています。「NVIDIA は長年にわたって、オープン コンピューティング規格に多くの貢献をしています。そのなかには、過去 2 年間にわたってMetaの Grand Teton サーバーの基盤となってきた、ハイパフォーマンス コンピューティング プラットフォームも含まれています。大規模な人工知能の演算に対する要望が高まっているなか、NVIDIA による最新のラック設計とモジュラー アーキテクチャの貢献は、様々な業界での AI インフラの開発と実装を加速させることになるでしょう」
10 月 15 日から 17 日まで、San Jose Convention Center で開催される 2024 OCP Global Summit では、NVIDIA の Open Compute Project への貢献についてさらに詳しく知ることができます。