概 要
- HPE と NVIDIA の共同開発による新しいAI ソリューションである、NVIDIA AI Computing by HPE の市場を共同で開拓
- HPE Private Cloud AI は、HPEとNVIDIAが共同で開発したAIオファリング
ヒューレット・パッカード エンタープライズ(HPE)(日本ヒューレット・パッカード合同会社 本社:東京都江東区、代表執行役員社長:望月 弘一)とエヌビディア合同会社(本社:東京都港区、日本代表兼米国本社副社長 大崎真孝)は本日、企業による生成 AI の導入加速を支援することを目的に共同で開発した、AI ソリューションのポートフォリオおよび共同の市場開拓の取り組みであるNVIDIA AI Computing by HPE を発表しました。
ポートフォリオの重要なオファリングの1つである、HPE Private Cloud AI は、他に類のないソリューションで、現時点では最も密接な統合を、NVIDIA AI コンピューティング、ネットワーク、ソフトウェアと、HPEのAI ストレージ、コンピュート、HPE GreenLake クラウドに実現しています。HPE Private Cloud AI は、あらゆる規模の企業が優れたエネルギー効率で、高速かつ柔軟な方法で生成 AI アプリケーションのサステナブルな開発と展開を行えるよう支援します。IT 運用のワークロードと IT 効率の向上を支援する新しいOpsRamp AI コパイロットを搭載したHPE Private Cloud AIは、フルライフサイクル管理を提供するセルフサービスのクラウド エクスペリエンスにより、最適にサイジングされた4種類の構成で広範なAI ワークロードとユース ケースをサポートします。
NVIDIA AI Computing by HPE で提供する全ての製品およびサービスの市場開拓にあたっては、既存のパートナープログラムである、HPE Partner Ready および HPE Partner Ready Vantageの拡張を実施します。幅広い販売パートナー向けの新しい学習コンテンツ追加やワークショップを実施する他、新たなAI関連資格を設け、様々な業種のお客様が複雑なAIワークロードを実行できるよう共同で取り組みます。
年次イベントHPE Discover の基調講演で HPE の社長兼CEOであるアントニオ・ネリがNVIDIA創業者/CEO のジェンスン フアンと一緒に発表したNVIDIA AI Computing by HPE は、数十年にわたる両社のパートナーシップの拡大を示し、両社による多大な時間と資源のコミットメントを象徴します。
HPEの社長兼CEOであるアントニオ ネリ(Antonio Neri)は次のように述べています。
「生成AIは、企業の変革に活かせる無限の可能性を秘めていますが、細分化された複雑なAI テクノロジには多くのリスクや障壁が大手企業による大規模な導入を困難にし、企業にとって最も貴重な資産である独自データが危険にさらされる可能性があります。生成 AI が無限の可能性を企業において発揮し、生産性の飛躍的な向上と、新たな収益源を創出するAIのユースケースを開発することに資源を集中させることができるよう、HPE と NVIDIA は、AI のためのターンキー型プライベート クラウドを共同開発しました」
NVIDIA創業者/CEOのジェンスン フアン(Jensen Huang)は次のように述べています。
「生成 AI とアクセラレーテッド コンピューティングは、あらゆる業界が産業革命に挑む中、抜本的な変革に拍車をかけています。NVIDIAと HPEがこれほどまでに両社のテクノロジを密接に統合させたことは初めてであり、NVIDIA AI コンピューティング スタック全体とHPEのプライベート クラウド テクノロジを組み合わせることで、企業のお客様や AI プロフェッショナルが AI の領域を拡大できるよう、最先端のコンピューティング インフラとサービスを提供します」
HPE と NVIDIA による共同開発の Private Cloud A Iポートフォリオ
HPE Private Cloud AI は、クラウドをベースとするユニークなエクスペリエンスを提供し、イノベーションとROI(投資収益率)を加速させるとともに、AIに起因するエンタープライズ リスクを管理します。本ソリューションは以下を実現します:
- 独自のデータを利用した推論、ファインチューニング、RAG AI ワークロードのサポート
- データ プライバシー、セキュリティ、透明性、およびガバナンス要件に対応したエンタープライズ制御
- 生産性の向上に寄与する ITOps およびAIOps機能を提供するクラウド エクスペリエンス
- 将来のAI適用の機会や成長に柔軟に対応する迅速な導入パス
HPE Private Cloud AI にキュレーションされた AI とデータソフトウェアスタック
AI とデータソフトウェア スタックの基盤は、NVIDIA NIM™推論マイクロサービスを含むNVIDIA AI Enterpriseソフトウェア プラットフォームから始まります。
NVIDIA AI Enterpriseは、データ サイエンスのパイプラインを高速化し、本番環境グレードのコパイロットやその他の生成AIアプリケーションの開発と展開を効率化します。NVIDIA AI Enterprise に含まれるNVIDIA NIM は、最適化された AI モデル推論のための使いやすいマイクロサービスを提供し、様々なユースケースにおける AI モデルのプロトタイプからセキュアな展開へのスムーズな移行を実現します。
NVIDIA AI Enterprise とNVIDIA NIM を補完する HPE AI Essentials ソフトウェアは、統合されたコントロールプレーンを通じて、すぐに実行可能なAIおよびデータ基盤ツールのセットを提供します。HPE AI Essentialsソフトウェアは、データおよびAIモデルのコンプライアンスや、AIライフサイクル全体にわたってAIパイプラインのコンプライアンス、説明可能性、再現性を保証する拡張可能な機能など、適用可能なソリューションと継続的なエンタープライズ サポート、および信頼できるAIサービスを提供します。
AIおよびデータソフトウェア スタックに最適なパフォーマンスを提供するにあたって、HPE Private Cloud AI は、NVIDIA Spectrum-X™ Ethernet ネットワーキング プラットフォーム、HPE GreenLake for File Storage、および NVIDIA L40S、NVIDIA H100 NVL Tensor コア GPU、NVIDIA GH200 NVL2 プラットフォームをサポートするHPE ProLiantサーバーを含む、完全に統合されたAIインフラストラクチャ スタックを提供します。
HPE GreenLake クラウドが実現するクラウド エクスペリエンス
HPE Private Cloud AI は、HPE GreenLake クラウドによって実現されるセルフサービスのクラウド エクスペリエンスを提供します。単一のプラットフォーム ベースのコントロール プレーンを通じて、HPE GreenLake クラウドサービスは、エンドポイント、ワークロード、データをハイブリッド環境全体で自動化、オーケストレーション、管理するための管理性と可観測性を実現します。これには、ワークロードとエンドポイントのサステナビリティメト リクスも含まれます。
HPE GreenLake クラウドと OpsRamp の AI インフラ可観測性とコパイロットアシスタント
OpsRamp の IT オペレーションは HPE GreenLake クラウドと統合されており、可観測性と AIOps をすべての HPE 製品とサービスに実現します。OpsRamp は、NVIDIA NIM およびAIソフトウェア、NVIDIA Tensor コア GPU、AIクラスタ、NVIDIA Quantum InfiniBand およびNVIDIA Spectrum Ethernet スイッチを含む、エンドツーエンドのNVIDIA アクセラレーテッド コンピューティングスタックの可観測性を実現します。IT管理者は、ハイブリッド、マルチクラウド環境にわたって、AIインフラストラクチャとワークロードを監視し、異常を特定するためのインサイトを得ることができます。
新しいOpsRampの運用コパイロットは、NVIDIAのアクセラレーテッド コンピューティング プラットフォームを活用し、大規模なデータセットを解析して対話型のアシスタントによるインサイトを得ることで、運用管理の生産性を高めます。また、OpsRampはCrowdStrikeのAPI との統合により、インフラストラクチャ全体とアプリケーション全体にわたるエンドポイントセキュリティが統合されたサービスマップビューを参照することができます。
AIの価値実現までの時間を短縮 - グローバル展開のシステムインテグレーターとの協業を拡大
Deloitte、HCLTech、Infosys、TCS、WIPROは、業界に特化した AI ソリューションと明確なビジネスベネフィットをもたらすユースケースを開発するための価値実現までの時間を短縮するため、戦略的AIソリューションとサービスの一環として、NVIDIA AI Computing by HPE ポートフォリオとHPE Private Cloud AI をサポートすることを発表しました。
HPEは、NVIDIAの最新 GPU、CPU、Superchip のサポートを追加
- HPE Cray XD670は8基の NVIDIA H200 NVL Tensor コア GPU をサポートし、大規模言語(LLM)の構築に最適です。
- NVIDIA GH200 NVL2 を搭載する HPE ProLiant DL384 Gen12 サーバーは、大型モデルまたは RAG を使用する LLM 利用者に最適です。
- 最大8基の NVIDIA H200 NVL Tensor コア GPU をサポートする HPE ProLiant DL380a Gen12 サーバーは、生成 AIワークロードを柔軟に拡張したいLLMユーザーに最適です。
- HPEは、NVIDIA GB200 NVL72 / NVL2、新しいNVIDIA Blackwell、NVIDIA Rubin、NVIDIA VeraアーキテクチャをTime-to-Marketでタイムリーにサポートする体制が整っています。
高密度ファイルストレージは、NVIDIA DGX BasePODおよびNVIDIA OVXシステム認定
HPE GreenLake for File Storageは、NVIDIA DGX BasePOD認定およびNVIDIA OVX™ストレージ認定を取得し、AI、生成AI、GPU 集約型の大規模ワークロードを高速化するための実証済みのエンタープライズファイルストレージソリューションを提供します。HPE は、今後予定されているNVIDIA リファレンス アーキテクチャ ストレージ認定プログラムにおける Time-to-Market パートナーです。
提供開始時期
2024年夏から一般提供開始
- デュアルNVIDIA GH200 NVL2を搭載したHPE ProLiant DL384 Gen12サーバー
- NVIDIA H200 NVLを搭載したHPE Cray XD670サーバー
2024年秋から一般提供開始予定
- NVIDIA H200 NVL Tensor コア GPUを搭載したHPE ProLiant DL380a Gen12サーバー
2024年末にかけて提供開始予定