HPE と NVIDIA、生成 AI による産業革命の加速に向け NVIDIA AI Computing by HPE を発表

他に類のないターンキー型のプライベート クラウド AI ソリューションである新ラインアップは、サステナブルなアクセラレーテッド コンピューティングおよび充実したライフ サイクル サービスにより、AI 導入による価値実現までの時間を短縮

概 要

  • HPE と NVIDIA の共同開発による新しいAI ソリューションである、NVIDIA AI Computing by HPE の市場を共同で開拓
  • HPE Private Cloud AI は、HPEとNVIDIAが共同で開発したAIオファリング

ヒューレット・パッカード エンタープライズ(HPE)(日本ヒューレット・パッカード合同会社 本社:東京都江東区、代表執行役員社長:望月 弘一)とエヌビディア合同会社(本社:東京都港区、日本代表兼米国本社副社長 大崎真孝)は本日、企業による生成 AI の導入加速を支援することを目的に共同で開発した、AI ソリューションのポートフォリオおよび共同の市場開拓の取り組みであるNVIDIA AI Computing by HPE を発表しました。

ポートフォリオの重要なオファリングの1つである、HPE Private Cloud AI は、他に類のないソリューションで、現時点では最も密接な統合を、NVIDIA AI コンピューティング、ネットワーク、ソフトウェアと、HPEのAI ストレージ、コンピュート、HPE GreenLake クラウドに実現しています。HPE Private Cloud AI は、あらゆる規模の企業が優れたエネルギー効率で、高速かつ柔軟な方法で生成 AI アプリケーションのサステナブルな開発と展開を行えるよう支援します。IT 運用のワークロードと IT 効率の向上を支援する新しいOpsRamp AI コパイロットを搭載したHPE Private Cloud AIは、フルライフサイクル管理を提供するセルフサービスのクラウド エクスペリエンスにより、最適にサイジングされた4種類の構成で広範なAI ワークロードとユース ケースをサポートします。

NVIDIA AI Computing by HPE で提供する全ての製品およびサービスの市場開拓にあたっては、既存のパートナープログラムである、HPE Partner Ready および HPE Partner Ready Vantageの拡張を実施します。幅広い販売パートナー向けの新しい学習コンテンツ追加やワークショップを実施する他、新たなAI関連資格を設け、様々な業種のお客様が複雑なAIワークロードを実行できるよう共同で取り組みます。

年次イベントHPE Discover  の基調講演で HPE の社長兼CEOであるアントニオ・ネリがNVIDIA創業者/CEO  のジェンスン フアンと一緒に発表したNVIDIA AI Computing by HPE は、数十年にわたる両社のパートナーシップの拡大を示し、両社による多大な時間と資源のコミットメントを象徴します。

HPEの社長兼CEOであるアントニオ ネリ(Antonio Neri)は次のように述べています。
「生成AIは、企業の変革に活かせる無限の可能性を秘めていますが、細分化された複雑なAI テクノロジには多くのリスクや障壁が大手企業による大規模な導入を困難にし、企業にとって最も貴重な資産である独自データが危険にさらされる可能性があります。生成 AI が無限の可能性を企業において発揮し、生産性の飛躍的な向上と、新たな収益源を創出するAIのユースケースを開発することに資源を集中させることができるよう、HPE と NVIDIA は、AI のためのターンキー型プライベート クラウドを共同開発しました」

NVIDIA創業者/CEOのジェンスン フアン(Jensen Huang)は次のように述べています。
「生成 AI とアクセラレーテッド コンピューティングは、あらゆる業界が産業革命に挑む中、抜本的な変革に拍車をかけています。NVIDIAと HPEがこれほどまでに両社のテクノロジを密接に統合させたことは初めてであり、NVIDIA AI コンピューティング スタック全体とHPEのプライベート クラウド テクノロジを組み合わせることで、企業のお客様や AI プロフェッショナルが AI の領域を拡大できるよう、最先端のコンピューティング インフラとサービスを提供します」

HPE と NVIDIA による共同開発の Private Cloud A Iポートフォリオ
HPE Private Cloud AI は、クラウドをベースとするユニークなエクスペリエンスを提供し、イノベーションとROI(投資収益率)を加速させるとともに、AIに起因するエンタープライズ リスクを管理します。本ソリューションは以下を実現します:

  • 独自のデータを利用した推論、ファインチューニング、RAG AI  ワークロードのサポート
  • データ プライバシー、セキュリティ、透明性、およびガバナンス要件に対応したエンタープライズ制御
  • 生産性の向上に寄与する ITOps およびAIOps機能を提供するクラウド エクスペリエンス
  • 将来のAI適用の機会や成長に柔軟に対応する迅速な導入パス

HPE Private Cloud AI にキュレーションされた AI とデータソフトウェアスタック
AI とデータソフトウェア スタックの基盤は、NVIDIA NIM™推論マイクロサービスを含むNVIDIA AI Enterpriseソフトウェア プラットフォームから始まります。

NVIDIA AI Enterpriseは、データ サイエンスのパイプラインを高速化し、本番環境グレードのコパイロットやその他の生成AIアプリケーションの開発と展開を効率化します。NVIDIA AI Enterprise に含まれるNVIDIA NIM は、最適化された AI モデル推論のための使いやすいマイクロサービスを提供し、様々なユースケースにおける AI モデルのプロトタイプからセキュアな展開へのスムーズな移行を実現します。

NVIDIA AI Enterprise とNVIDIA NIM を補完する HPE AI Essentials ソフトウェアは、統合されたコントロールプレーンを通じて、すぐに実行可能なAIおよびデータ基盤ツールのセットを提供します。HPE AI Essentialsソフトウェアは、データおよびAIモデルのコンプライアンスや、AIライフサイクル全体にわたってAIパイプラインのコンプライアンス、説明可能性、再現性を保証する拡張可能な機能など、適用可能なソリューションと継続的なエンタープライズ サポート、および信頼できるAIサービスを提供します。

AIおよびデータソフトウェア スタックに最適なパフォーマンスを提供するにあたって、HPE Private Cloud AI は、NVIDIA Spectrum-X™ Ethernet ネットワーキング プラットフォーム、HPE GreenLake for File Storage、および NVIDIA L40SNVIDIA H100 NVL Tensor コア GPUNVIDIA GH200 NVL2 プラットフォームをサポートするHPE ProLiantサーバーを含む、完全に統合されたAIインフラストラクチャ スタックを提供します。

HPE GreenLake クラウドが実現するクラウド エクスペリエンス
HPE Private Cloud AI は、HPE GreenLake クラウドによって実現されるセルフサービスのクラウド エクスペリエンスを提供します。単一のプラットフォーム ベースのコントロール プレーンを通じて、HPE GreenLake クラウドサービスは、エンドポイント、ワークロード、データをハイブリッド環境全体で自動化、オーケストレーション、管理するための管理性と可観測性を実現します。これには、ワークロードとエンドポイントのサステナビリティメト リクスも含まれます。

HPE GreenLake クラウドと OpsRamp の AI インフラ可観測性とコパイロットアシスタント
OpsRamp の IT オペレーションは HPE GreenLake クラウドと統合されており、可観測性と AIOps をすべての HPE 製品とサービスに実現します。OpsRamp は、NVIDIA NIM およびAIソフトウェア、NVIDIA Tensor コア GPU、AIクラスタ、NVIDIA Quantum InfiniBand およびNVIDIA Spectrum Ethernet スイッチを含む、エンドツーエンドのNVIDIA  アクセラレーテッド コンピューティングスタックの可観測性を実現します。IT管理者は、ハイブリッド、マルチクラウド環境にわたって、AIインフラストラクチャとワークロードを監視し、異常を特定するためのインサイトを得ることができます。

新しいOpsRampの運用コパイロットは、NVIDIAのアクセラレーテッド コンピューティング プラットフォームを活用し、大規模なデータセットを解析して対話型のアシスタントによるインサイトを得ることで、運用管理の生産性を高めます。また、OpsRampはCrowdStrikeのAPI  との統合により、インフラストラクチャ全体とアプリケーション全体にわたるエンドポイントセキュリティが統合されたサービスマップビューを参照することができます。

AIの価値実現までの時間を短縮 - グローバル展開のシステムインテグレーターとの協業を拡大
Deloitte、HCLTech、Infosys、TCS、WIPROは、業界に特化した AI ソリューションと明確なビジネスベネフィットをもたらすユースケースを開発するための価値実現までの時間を短縮するため、戦略的AIソリューションとサービスの一環として、NVIDIA AI Computing by HPE ポートフォリオとHPE Private Cloud AI をサポートすることを発表しました。

HPEは、NVIDIAの最新 GPU、CPU、Superchip のサポートを追加

  • HPE Cray XD670は8基の NVIDIA H200 NVL Tensor コア GPU をサポートし、大規模言語(LLM)の構築に最適です。
  • NVIDIA GH200 NVL2 を搭載する HPE ProLiant DL384 Gen12 サーバーは、大型モデルまたは RAG を使用する LLM 利用者に最適です。
  • 最大8基の NVIDIA H200 NVL Tensor コア GPU をサポートする HPE ProLiant DL380a Gen12 サーバーは、生成 AIワークロードを柔軟に拡張したいLLMユーザーに最適です。
  • HPEは、NVIDIA GB200 NVL72 / NVL2、新しいNVIDIA Blackwell、NVIDIA Rubin、NVIDIA VeraアーキテクチャをTime-to-Marketでタイムリーにサポートする体制が整っています。

高密度ファイルストレージは、NVIDIA DGX BasePODおよびNVIDIA OVXシステム認定
HPE GreenLake for File Storageは、NVIDIA DGX BasePOD認定およびNVIDIA OVX™ストレージ認定を取得し、AI、生成AI、GPU 集約型の大規模ワークロードを高速化するための実証済みのエンタープライズファイルストレージソリューションを提供します。HPE は、今後予定されているNVIDIA リファレンス アーキテクチャ ストレージ認定プログラムにおける Time-to-Market パートナーです。

提供開始時期
2024年夏から一般提供開始

  • デュアルNVIDIA GH200 NVL2を搭載したHPE ProLiant DL384 Gen12サーバー
  • NVIDIA H200 NVLを搭載したHPE Cray XD670サーバー 

2024年秋から一般提供開始予定

  • NVIDIA H200 NVL Tensor コア GPUを搭載したHPE ProLiant DL380a Gen12サーバー

2024年末にかけて提供開始予定

  • HPE Private Cloud AI

NVIDIA について
1993年の創業以来、NVIDIA(https://www.nvidia.com/ja-jp/)(NASDAQ: NVDA) はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、産業用メタバースの創造を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細は、https://nvidianews.nvidia.com/ でご確認ください。

ヒューレット・パッカード エンタープライズ(HPE)について
Hewlett Packard Enterprise (NYSE: HPE) は、グローバルEdge-to-Cloudカンパニーとして、あらゆる場所に蓄積される全てのデータの価値を解き放ち、事業の成果を加速させる支援をします。人々の生活そして働き方の向上を目指し、数十年にわたって未来の再考とイノベーションを重ね、HPEは独自でありながら、オープンでインテリジェントなテクノロジソリューションをas a Serviceで提供しています。クラウドサービス、コンピュート、HPC & AI、インテリジェントエッジ、ソフトウェア、ストレージを全てのクラウドとエッジにわたって一貫したエクスペリエンスで提供することで、お客様が新たなビジネスモデルを創出し、新たなエンゲージメントを展開し、運用のパフォーマンスを最大化できるようサポートしています。詳細はhttps://www.hpe.com でご確認ください。

本プレスリリースに含まれる特定の記述には、以下のような記述が含まれますが、これらに限定されるものではありません: NVIDIA AI Enterpriseソフトウェアプラットフォーム、NVIDIA NIM推論マイクロサービス、NVIDIA Spectrum-X Ethernetネットワーキングプラットフォーム、NVIDIA L40S、NVIDIA H100 NVL Tensor コア GPU、NVIDIA GH200 NVL2プラットフォーム、NVIDIA Quantum InfiniBand、およびNVIDIA Spectrum Ethernetスイッチを含む、NVIDIAの製品およびテクノロジの利点、影響、性能、機能、および可用性; NVIDIAとHPEとのパートナーシップの拡大がもたらす利益と影響、HPEのサービスと提供物の特徴と利用可能性、NVIDIAの製品やテクノロジを使用または採用するサードパーティとそのベネフィット; 生成AIとアクセラレーテッドコンピューティングは、あらゆる業界が産業革命に挑む中、抜本的な変革に拍車をかけていること、およびNVIDIA AIコンピューティングスタック全体とHPEのプライベートクラウドテクノロジを組み合わせることで、企業のお客様や AIプロフェッショナルがAIの領域を拡大することは、リスクと不確実性を伴う将来の見通しに関する記述であり、予想と大きく異なる結果をもたらす可能性があります。実際の結果が大きく異なる可能性のある重要な要因には、以下が含まれます: 世界的な経済状況、製品の製造、組立、パッケージングおよびテストにおける NVIDIA のサードパーティへの依存、技術開発および競争の影響、新しい製品およびテクノロジの開発または NVIDIA の既存の製品およびテクノロジの強化、NVIDIA の製品またはパートナーとの連携製品の市場での受け入れ、設計、製造またはソフトウェアの欠陥; 消費者の嗜好や需要の変化、業界標準やインターフェースの変化、NVIDIA の製品やテクノロジがシステムに統合された際の予期せぬ性能の低下、その他、NVIDIA が米国証券取引委員会 (SEC) に提出する年次報告書 (Form 10-K) や四半期報告書 (Form 10-Q) などの最新の報告書に随時詳述されている要因。SECに提出された報告書のコピーは、当社のウェブサイトに掲載されており、NVIDIAから無料で入手することができます。これらの将来の見通しに関する記述は、将来の業績を保証するものではなく、本書の日付現在においてのみ述べたものであり、法律で義務付けられている場合を除き、NVIDIAは、将来の出来事や状況を反映するためにこれらの将来の見通しに関する記述を更新する義務を負いません。

本リリースに記載されている製品や機能の多くは、様々な段階にあり、利用可能になった時点で提供される予定です。上記の記述は、コミットメント、約束、または法的義務を意図したものではなく、またそのように解釈されるべきでもありません。また、NVIDIAの製品について説明されている特徴や機能の開発、リリース、およびそのタイミングは変更される可能性があり、NVIDIAの単独の裁量に委ねられます。NVIDIAは、ここに記載された製品、特徴または機能の提供の不達または遅延について、いかなる責任も負いません。

© 2024 NVIDIA Corporation. All rights reserved. NVIDIA、NVIDIAロゴ、NVIDIA DGX BasePOD、NVIDIA OVXおよびNVIDIA Spectrum-Xは、米国およびその他の国におけるNVIDIA Corporationの商標および/または登録商標です。その他の会社名および製品名は、関連する各社の商標である場合があります。機能、価格、可用性、および仕様は予告なく変更されることがあります。