台湾、台北 — COMPUTEX — 2024 年 6 月 2 日 — NVIDIA と世界トップクラスのコンピューター メーカーは本日、企業が AI ファクトリーやデータセンターを構築し、次世代の 生成 AI ブレイクスルーを推進するための Grace CPU、NVIDIA ネットワーキング、インフラを備えた NVIDIA Blackwell アーキテクチャ搭載システムのラインナップを発表しました。
COMPUTEX 基調講演で、NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は、ASRock Rack、ASUS、GIGABYTE、Ingrasys、Inventec、Pegatron、QCT、Supermicro、Wistron、Wiwynn が、NVIDIA GPU とネットワーキングを使用して、クラウド、オンプレミス、組み込み、エッジ AI システムを提供する予定であると発表しました。
「次の産業革命が始まりました。企業や国が NVIDIA と提携して、1 兆ドル規模の従来のデータセンターをアクセラレーテッド コンピューティングに移行し、新しいタイプのデータセンター (AI ファクトリー) を構築して、人工知能という新しい商品を生産しようとしています」とフアンは述べます。「サーバー、ネットワーク、インフラの製造業者からソフトウェア開発者まで、業界全体が Blackwell に期待し、あらゆる分野で AI を活用したイノベーションを加速させようとしています」
あらゆる種類のアプリケーションに対応するため、シングル GPU からマルチ GPU、x86 から Grace ベースのプロセッサ、空冷から液冷まで、提供される製品は多岐にわたります。
さらに、さまざまなサイズや構成のシステムの開発をスピードアップするため、NVIDIA MGX ™ モジュラー リファレンス デザイン プラットフォームはNVIDIA Blackwell 製品をサポートするようになります。これには、主流の大規模言語モデルの推論、Retrieval-Augmented Generation (RAG)、およびデータ処理で比類のないパフォーマンスを実現するように構築された新しい NVIDIA GB200 NVL2 プラットフォームが含まれます。
GB200 NVL2 は、企業が年間数百億ドルを費やしているデータ分析などの新興市場のビジネス チャンスに最適です。NVLink®-C2C インターコネクトと Blackwell アーキテクチャに搭載された専用の解凍エンジンによって提供される高帯域のメモリ パフォーマンスを活用することで、x86 CPU を使用する場合と比べ、データ処理が最大 18 倍高速化され、エネルギー効率が 8 倍向上します。
アクセラレーテッド コンピューティングのためのモジュラー リファレンス アーキテクチャ
世界中のデータセンターの多様なアクセラレーテッド コンピューティングのニーズを満たすために、NVIDIA MGX は、100 を超えるシステム設計構成を迅速かつコスト効率よく構築するためのリファレンス アーキテクチャをコンピューター メーカーに提供しています。
メーカーは、サーバー筐体の基本システム アーキテクチャから始めて、さまざまなワークロードに対応するために GPU、DPU、CPU を選択します。現在までに、MGX リファレンス アーキテクチャを活用した 90 を超えるシステムが 25 社以上のパートナーからリリースまたは開発中です。これは、昨年の 6 社の 14 システムから増加しています。MGX を使用すると、開発コストを最大 4 分の 3 削減し、開発期間を 3 分の 2 の 6 か月に短縮できます。
AMD と Intel は、MGX アーキテクチャをサポートし、初めて独自の CPU ホスト プロセッサ モジュール設計を提供する予定です。これには、次世代の AMD Turin プラットフォームと、P コアを搭載した Intel® Xeon® 6 プロセッサ (以前のコード名 Granite Rapids) が含まれます。どのサーバー システム ビルダーでも、これらのリファレンス設計を使用して、設計とパフォーマンスの一貫性を確保しながら開発時間を節約することができます。
NVIDIA の最新プラットフォームである GB200 NVL2 も、MGX と Blackwell を活用しています。スケールアウト型のシングル ノード設計により、さまざまなシステム構成とネットワーク オプションが可能になり、既存のデータセンター インフラにアクセラレーテッド コンピューティングをシームレスに統合できます。
GB200 NVL2 は、NVIDIA Blackwell Tensor コア GPU、GB200 Grace Blackwell Superchip、GB200 NVL72 を含む Blackwell 製品ラインナップに加わります。
エコシステムの統合
NVIDIA の包括的なパートナー エコシステムには、世界有数の半導体メーカーであり NVIDIA ファウンドリ パートナーでもある TSMC のほか、AI ファクトリーを構築するための主要コンポーネントを提供する世界的な電子機器メーカーが含まれます。これには、Amphenole、Asia Vital Components (AVC)、Cooler Master、Colder Products Company (CPC)、Danfoss、Delta Electronics、LITEON などの企業によるサーバー ラック、電源、冷却ソリューションなどの製造イノベーションが含まれます。
その結果、世界中の企業のニーズを満たす新しいデータセンター インフラを迅速に開発および展開できるようになり、さらに Blackwell テクノロジ、NVIDIA Quantum-2 または Quantum-X800 InfiniBand ネットワーキング、NVIDIA Spectrum™-X Ethernet ネットワーキング、NVIDIA BlueField®-3 DPU によって高速化され、主要なシステム メーカーの Dell Technologies、Hewlett Packard Enterprise、Lenovo のサーバーで利用できるようになります。
企業はさらに、NVIDIA NIM™ 推論マイクロサービスを含む NVIDIA AI Enterprise ソフトウェア プラットフォームにアクセスして、プロダクショングレードの生成 AI アプリケーションを作成して実行することもできます。
台湾が Blackwell を採用
基調講演でフアンは、台湾の大手企業が自社のビジネスに AI の力を取り入れるために Blackwell を急速に採用していることも発表しました。
台湾を代表する医療センターである Chang Gung Memorial Hospital は、NVIDIA Blackwell コンピューティング プラットフォームを使用してバイオメディカル研究を推進し、画像および言語アプリケーションを高速化して臨床ワークフローを改善し、最終的には患者ケアをさらに高める予定です。
世界最大の電子機器メーカーの 1 つである Foxconn は、NVIDIA Grace Blackwell を使用して、AI 搭載の電気自動車やロボティクス プラットフォーム向けのスマート ソリューション プラットフォームを開発するとともに、顧客にさらにパーソナライズされた体験を提供するための言語ベースの生成 AI サービスも増やす予定です。
その他の推奨コメント
- Amphenole 社長兼 CEO R. Adam Norwitt 氏:「NVIDIA の画期的な AI システムには高度なインターコネクト ソリューションが必要であり、Amphenole は重要なコンポーネントを供給できることを誇りに思っています。NVIDIA の充実したエコシステムの重要なパートナーとして、当社は Blackwell アクセラレータ向けに非常に複雑で効率的なインターコネクト製品を提供し、最先端のパフォーマンスを実現します」
- Asia Vital Components (AVC) 会長兼 CEO Spencer Shen 氏:「AVC は NVIDIA 製品で重要な役割を果たしており、最新の Grace Blackwell Superchip を含む AI ハードウェアの効率的な冷却を実現しています。AI モデルとワークロードが拡大し続ける中、集中的な AI コンピューティングを処理するには信頼性の高い熱管理が重要であり、当社はそのあらゆる段階で NVIDIA と共にあります」
- ASUS 会長 Jonney Shih 氏:「ASUS は NVIDIA と連携し、COMPUTEX で展示する強力なサーバー ラインアップでエンタープライズ AI を新たな高みへと引き上げています。NVIDIA の MGX および Blackwell プラットフォームを使用することで、トレーニング、推論、データ分析、HPC にわたる顧客のワークロードを処理するために構築された、顧客に合わせたデータセンター ソリューションを作成できます」
- Dover Corporation の Colder Products Company (CPC) 社長 Janel Wittmayer 氏: 「CPC の革新的な専用コネクタ テクノロジにより、AI システムで液冷式 NVIDIA GPU を簡単かつ確実に接続できます。パフォーマンスと品質のビジョンを共有する CPC は、NVIDIA の驚異的な成長と進歩を支える重要なテクノロジ コンポーネントを供給する能力と専門知識を備えています。当社のコネクタは、温度に敏感な製品の整合性を維持する上で中心的な役割を果たしており、これは AI システムが計算集約型のタスクを実行する際に重要です。NVIDIA エコシステムの一員となり、当社のテクノロジを新しいアプリケーションに導入できることを嬉しく思います」
- Cooler Master CEO Andy Lin 氏: 「アクセラレーテッド コンピューティングの需要が高まり続ける中、最先端のアクセラレータを活用する企業のエネルギー基準を効果的に満たすソリューションの需要も高まっています。熱管理ソリューションのパイオニアとして、Cooler Master は NVIDIA Blackwell プラットフォームの潜在能力を最大限に引き出し、顧客に驚異的なパフォーマンスを提供する支援をしています」
- Danfoss CEO Kim Fausing 氏:「Danfoss は革新的で高性能なクイック ディスコネクトとフルード パワー設計に注力しており、当社のカップリングはデータセンターで効率的で信頼性が高く安全な運用を実現する上で重要になっています。NVIDIA の AI エコシステムの重要な部分として、私たちの協力により、データセンターは環境への影響を最小限に抑えながら、急増する AI 需要に対応できるようになります」
- Delta Electronics CEO Ping Cheng 氏:「コンピューティング パワーに対するあらゆる需要が、高速化されたパフォーマンス機能の新時代を巻き起こしました。Delta は、高度な冷却および電源システムを通じて、エネルギー効率と熱効率を維持しながら、NVIDIA の Blackwell プラットフォームを最高のパフォーマンス レベルで動作させることができる革新的なソリューションを開発しました」
- GIGABYTE 副社長兼ゼネラル マネージャー Etay Lee 氏: 「約 30 年にわたる協業関係により、GIGABYTE は GPU、CPU、DPU、高速ネットワークの分野で NVIDIA テクノロジをサポートすることに深くコミットしています。企業がコンピューティング集約型のワークロードでさらに優れたパフォーマンスとエネルギー効率を実現できるように、当社は Blackwell ベースの幅広いシステムを市場に投入しています」
- Hon Hai Technology Group 会長兼 CEO Young Liu 氏: 「生成 AI が業界を変革する中、Foxconn は最も多様で要求の厳しいコンピューティング ニーズを満たす最先端のソリューションを用意しています。当社は自社のサーバーで最新の Blackwell プラットフォームを使用するだけでなく、NVIDIA に主要コンポーネントを提供することで、顧客の市場投入までの時間を短縮しています」
- Inventec 社長 Jack Tsai 氏:「Inventec は半世紀近くにわたり、電子製品と部品の設計と製造を行ってきました。これらは当社のビジネスの生命線です。NVIDIA Grace Blackwell Superchip を搭載した NVIDIA MGX ラックベース ソリューションを通じて、当社は顧客が AI の機能とパフォーマンスの新たな領域に踏み出せるよう支援しています」
- LITEON Technology 社長 Anson Chiu氏:「持続可能なデータセンターを構築するには、電力管理と冷却ソリューションが中心になります。NVIDIA Blackwell プラットフォームの発表に伴い、LITEON は NVIDIA パートナーがより効率的で環境に優しいデータセンターの未来を切り開くことを可能にする 複数の液体冷却ソリューションをリリースする予定です」
- Quanta Computer 会長 Barry Lam 氏:「私たちは、かつてないほどイノベーションが加速している AI 主導の世界の中心に立っています。NVIDIA Blackwell は単なるエンジンではなく、この産業革命の火付け役です。生成 AI の次の時代を定義するにあたり、Quanta は NVIDIA とともにこの素晴らしい旅に参加できることを誇りに思います。私たちは共に、AI の新たな章を形作り、定義していきます」
- Supermicro 社長兼 CEO Charles Liang 氏:「当社のビルディング ブロック アーキテクチャとラック スケールの液体冷却ソリューションを、社内エンジニアリングと月間 5,000 ラックのグローバル生産能力と組み合わせることで、世界中の AI ファクトリーに、画期的な NVIDIA AI プラットフォーム ベースの幅広い製品を迅速に提供できます。NVIDIA Blackwell アーキテクチャに基づくすべての製品向けに最適化されたラック スケール設計の液体冷却または空冷の高性能システムは、次世代のコンピューティングのニーズを満たすプラットフォームの素晴らしい選択肢をお客様に提供し、AI の未来への大きな飛躍をもたらします」
- TSMC CEO C.C. Wei 氏: 「TSMC は NVIDIA と緊密に連携し、半導体のイノベーションの限界を押し広げて AI のビジョンの実現に取り組んでいます。業界をリードする当社の半導体製造テクノロジは、Blackwell アーキテクチャに基づくものを含め、NVIDIA の画期的な GPU の開発に貢献してきました」
- Wistron CEO Jeff Lin 氏: 「主要な製造パートナーとして、Wistron は NVIDIA と共に素晴らしい道を歩み、GPU コンピューティング テクノロジと AI クラウド ソリューションを顧客に提供してきました。現在、当社は Blackwell や MGX などの NVIDIA の最新の GPU アーキテクチャとリファレンス デザインに取り組んでおり、驚異的な新しい AI コンピューティング製品を迅速に市場に投入しています」
- Wiwynn 社長 William Lin 氏: 「Wiwynn は、生成 AI の時代における大規模なコンピューティング パワーと高度な冷却ソリューションに対する高まる需要に顧客が対応できるよう支援することに注力しています。NVIDIA Grace Blackwell および MGX プラットフォームをベースとした当社の最新ラインナップでは、ハイパースケール クラウド プロバイダーや企業の厳しいワークロードに特化して最適化されたラックレベルの液冷 AI サーバーを構築しています」
NVIDIA Blackwell および MGX プラットフォームの詳細については、フアンの COMPUTEX 基調講演をご覧ください。