台湾、台北 – COMPUTEX – 2023 年 5 月 29 日 – NVIDIA は本日、世界のデータセンターの多様なアクセラレーテッド コンピューティングのニーズを満たすために、NVIDIA MGX™ サーバーの仕様を発表しました。これにより、システム メーカーには幅広い AI、ハイ パフォーマンス コンピューティング、Omniverse のアプリケーションに適した 100 以上のサーバー バリエーションを迅速かつコスト効率よく構築できるモジュラー リファレンス アーキテクチャが提供されます。
ASRock Rack、ASUS、GIGABYTE、Pegatron、QCT、Supermicro は MGX を採用し、開発コストを最大 4 分の 3 に削減し、開発期間を 3 分の 2 となる 6 か月に短縮することができます。
NVIDIA の GPU 製品担当バイス プレジデント、カウストゥブ サンガニ (Kaustubh Sanghani) は次のように述べています。「企業は、特定のビジネスやアプリケーションのニーズを満たすデータセンターを構築する際に、より多くのアクセラレーテッドコンピューティング オプションを求めています。私たちは、組織によるエンタープライズ AI の立ち上げを支援し、同時に時間とコストを大幅に削減するために MGX を開発しました」
MGX を使用する場合、メーカーはサーバー筐体でのアクセラレーテッド コンピューティングに最適化された基本的なシステム アーキテクチャから始めて、GPU、DPU、CPU を選択します。設計のバリエーションにより、HPC、データ サイエンス、大規模言語モデル、エッジ コンピューティング、グラフィックスとビデオ、エンタープライズ AI、設計とシミュレーションなどの固有のワークロードに対処できます。AI のトレーニングや 5G などの複数のタスクを 1 台のマシンで処理でき、将来のハードウェア世代へのアップグレードもスムーズに行うことができます。また、MGX は、クラウドやエンタープライズ データセンターにも簡単に統合することができます。
業界リーダーとのコラボレーション
QCT と Supermicro が、MGX デザインを 8 月にいち早く市場に投入する予定です。本日発表された Supermicro の ARS-221GL-NR システムには NVIDIA Grace™ CPU Superchip が搭載され、同じく本日発表された QCT の S74G-2U システムには NVIDIA GH200 Grace Hopper Superchip が採用されます。
さらに、ソフトバンク株式会社は日本全国で複数のハイパー スケール データセンターを展開し、このプラットフォームを活用して、生成AIと5Gアプリケーション間でGPUリソースを動的に割り当てる予定です。
ソフトバンク株式会社代表取締役 社長執行役員 兼 CEOの宮川 潤一氏は次のように述べています。「生成AIがビジネスや消費者のライフスタイルに浸透する中、適切なコストで最適なインフラを構築することは、通信事業者の最大の課題の1つです。NVIDIA MGXはこの課題を解決し、リアルタイムのワークロードの要件に応じて、AI、5Gなどをマルチに活用することができると期待しています。」
多様なニーズに対応したさまざまなデザイン
データセンターは、コストを抑えながら、コンピューティング能力を高め、気候変動と戦うために炭素排出量を削減するという両方の要件を満たす必要がますます高まっています。
NVIDIA のアクセラレーテッド コンピューティング サーバーは、長年にわたって非常に優れたコンピューティング パフォーマンスとエネルギー効率を提供してきました。MGX のモジュラー設計により、システム メーカーは各顧客固有の予算、電力供給、熱設計、機械的要件をより効果的に満たせるようになります。
複数のフォーム ファクターにより最大限の柔軟性を実現
MGX はさまざまなフォーム ファクターで動作し、次のような現在および将来の世代の NVIDIA ハードウェアと互換性があります。
- 筐体: 1U、2U、4U (空冷または液冷)
- GPU: 最新の H100、L40、L4 を含む完全な NVIDIA GPU ポートフォリオ
- CPU: NVIDIA Grace CPU Superchip、GH200 Grace Hopper Superchip、x86 CPU
- ネットワーク: NVIDIA BlueField®-3 DPU、ConnectX®-7 ネットワーク アダプター
MGX は、NVIDIA 製品との柔軟な多世代の互換性を提供するという点で NVIDIA HGX™ とは異なり、システム ビルダーが既存の設計を再利用し、高価な再設計を行わずに、次世代製品を簡単に採用することができます。一方、HGX は、究極の AI および HPC システムを構築するために、スケーリングに適合した NVLink® 接続のマルチ GPU ベースボードを採用しています。
さらなるアクセラレーションを実現するソフトウェア
ハードウェアに加えて、MGX は NVIDIA の完全なソフトウェア スタックによってサポートされており、これにより開発者や企業は AI、HPC、その他のアプリケーションを構築および高速化できます。これには、NVIDIA AI プラットフォームのソフトウェア レイヤーである NVIDIA AI Enterprise が含まれます。これは、エンタープライズ AI の開発と展開を完全にサポートするために AI とデータ サイエンスを加速する 100 を超えるフレームワーク、事前トレーニング済みモデル、開発ツールを備えています。
MGX は、Open Compute Project および Electronic Industries Alliance サーバー ラックと互換性があり、エンタープライズおよびクラウドのデータセンターに迅速に統合できます。
NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang)が COMPUTEX 2023 の基調講演で MGX サーバーの仕様について語る様子をご視聴ください。
NVIDIA について
1993年の創業以来、NVIDIA (NASDAQ: NVDA) はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、産業用メタバースの創造を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細は、こちらのリンクから:https://nvidianews.nvidia.com/.