テキサス州オースティンおよびカリフォルニア州サンノゼ—GTC - 2024年3月29 日
(本資料は2024年3月18日にオラクル・コーポレーションより発表されたプレスリリースの抄訳です)
オラクルとNVIDIAは、本日、ソブリンAIソリューションを世界中のお客様に提供するために、協力関係を拡大することを発表しました。オラクルの分散クラウド、AIインフラストラクチャ、および生成AIサービスと、NVIDIAのアクセラレーテッド コンピューティングおよび生成AIソフトウェアを組み合わせることで、政府機関や企業は、AIファクトリーを実現できます。
AIファクトリーは、ローカルまたは国や組織のセキュアな施設内で、幅広い運用管理を適用しながらクラウド サービスを実行でき、経済的な成長を多様化し促進する主権目標を支援します。
オラクルのCEOであるサフラ キャッツ(Safra Catz ) は次のように述べています。「AIによって世界中のビジネス、業界、ポリシーが再構築されており、国や組織は最も価値のあるデータを保護するために、デジタル主権を強化する必要があります。NVIDIAとの継続的な協力関係と、クラウド リージョンをローカルに迅速に導入するオラクル独自の能力により、社会が安全性を損なうことなく AI を活用できるようにしていきます。」
創業者/CEO であるジェンスン フアン (Jensen Huang ) は次のように述べています。「生成AIによってイノベーションが促進される時代では、データ主権が文化的、経済的に不可欠です。オラクルの統合クラウド・アプリケーションおよびインフラストラクチャと、NVIDIAのアクセラレーテッド コンピューティングおよび生成AIサービスを組み合わせることで、国や地域が自らの行く末をコントロールするための要件とされる柔軟性とセキュリティを実現します。」
お客様のデータ主権実現を支援するターンキー ソリューション
NVIDIAのフルスタックのAIプラットフォームとオラクルのエンタープライズAIを組み合わせることにより、「OCI Dedicated Region」、「Oracle Alloy」、「Oracle EU Sovereign Cloud」、および「Oracle Government Cloud」にわたり導入が可能で、デジタル主権サポートを支援するための運用、ロケーション、およびセキュリティを適切に管理可能な最先端のAIソリューションをお客様に提供します。
世界中の国々が、それぞれの文化的および経済的な目標をサポートできるAIインフラストラクチャへの投資を増やしています。26カ国の66のクラウド リージョン全体で、お客様はITの移行、モダナイゼーション、およびイノベーションをサポートするために、インフラストラクチャやアプリケーションにわたる100を超えるクラウド サービスやAIサービスを利用できます。
オラクルとNVIDIAの組み合せによるサービスは、パブリック クラウドを介して、または特定の場所にあるお客様のデータセンター内に導入でき、柔軟な運用管理を実現します。オラクルはAIサービスとフル機能のクラウド サービスを、場所を問わずローカルに提供できる唯一のハイパースケーラーです。OCIのサービスと価格設定は、さまざまな導入タイプにわたって一貫性があるため、計画、ポータビリティ、および管理が簡素化されます。
オラクルのクラウド サービスは、NVIDIAアクセラレーテッド コンピューティング インフラストラクチャおよび、新たに発表されたNVIDIA NIM推論マイクロサービスを含むNVIDIA AI Enterpriseソフトウェア プラットフォームなどのNVIDIAのさまざまなスタックを活用しています。NVIDIA NIM推論マイクロサービスは、NVIDIA TensorRT、NVIDIA TensorRT-LLM、およびNVIDIA Triton Inference ServerなどのNVIDIA推論ソフトウェアの基盤上に構築されます。
ソブリンAIのパイオニア
資産管理テクノロジーのリーダーであるAvaloqは、「OCI Dedicated Region」を選択し、包括的なOCIパブリック クラウド リージョンを自社データセンターに導入しました。
Avaloqのチーフ・テクノロジー・オフィサーであるMartin Büchi氏は次のようにコメントしています。「『OCI Dedicated Region』は、最新のクラウド・インフラストラクチャへのアクセスを提供しながら、データ レジデンシーを最大限に制御するという当社のコミットメントと一致します。銀行やウェルスマネージャーのデジタル トランスフォーメーションを推進し続ける私たちをサポートしてくれます。」
ニュージーランドの主要な情報管理サービス プロバイダーであるTEAM IMは、「Oracle Alloy」を採用し、ニュージーランドで初めてとなる、ローカルで所有と運用を行うハイパースケール クラウドを構築しました。
TEAM IM のチーフ エグゼクティブ・オフィサーであるイアン ロジャース(Ian Rogers) 氏は次のようにコメントしています。「ニュージーランドでは、独自のハイパースケール・クラウド ソリューションを利用することで、データの整合性を自国内で保護しつつ、クラウドのパワーを活用したいという組織のニーズが高まっています。『Oracle Alloy』とNVIDIA AI プラットフォームを当社のクラウド サービスに統合できる可能性により、当社は、公共機関と商業組織、および部族組織がデジタル環境の複雑さを乗り越え、デジタル トランスフォーメーションを最適化できるように支援するクラウド サービス・プロバイダーになることができました。」
e&グループの通信部門であるe& UAE は、オラクルとコラボレーションしてAI機能を強化し、「OCI Dedicated Region」にNVIDIA H100 Tensor コア GPUクラスタを導入しようとしています。
e& UAEのチーフ テクノロジー アンド インフォメーション オフィサー(CTIO)であるKhalid Murshed氏は次のようにコメントしています。「OCIにより、私たちはe& UAEのデータセンターでホストしている独自の『OCI Dedicated Region』にNVIDIA H100 GPUクラスタを導入できます。このタイプのローカリゼーションにより、UAE全体でAIイノベーションを加速し、新しい生成AIアプリケーションや大規模なユースケースの開発に役立つでしょう。これは、他社にない顧客体験を提供するために AI の卓越性を推進することに重点を置き、イノベーションを開拓しテクノロジーの未来を形作るという e& UAE の変革の取り組みと一致しています。」
NVIDIA Grace Blackwellで強化されるOCI SuperclusterとOCI Compute
お客様がますます増加するAIモデルのニーズに対応できるよう、オラクルは、本日GTCで発表された最新のNVIDIA Grace Blackwellコンピューティング プラットフォームを「OCI Supercluster」と「OCI Compute」で活用することを計画しています。「OCI Supercluster」は、新しい「OCI Compute」ベアメタル・インスタンス、超低レイテンシのRDMAネットワーキング、および高パフォーマンスのストレージにより、大幅に高速化されます。「OCI Compute」は、NVIDIA GB200 Grace™ Blackwell SuperchipとNVIDIA Blackwell B200 Tensor コア GPUの両方を採用します。
NVIDIA GB200 Grace Blackwell Superchipは、コンピューティングの新時代を推進します。GB200は、前世代の GPU と比較して、最大 30 倍高速なリアルタイム大規模言語モデル (LLM) 推論、25 倍の TCO 削減、必要なエネルギーの 25 倍の削減を実現し、AI トレーニング、データ処理、エンジニアリング設計とシミュレーションを強化します。NVIDIA Blackwell B200 Tensor コア GPUは、最も要求の厳しいAI、データ分析、およびハイパフォーマンス・コンピューティング(HPC)のワークロード向けに設計されています。
検索拡張生成(RAG)推論を導入するためのNVIDIA NeMo RetrieverなどのNVIDIA NIMおよびCUDA-Xマイクロサービスは、OCIのお客様が独自データを使用して、生成AIコパイロツトやその他の生産性ツールに、より多くのインサイトと正確性をもたらすのに役立ちます。
NVIDIA Grace BlackwellがOCI上のDGX Cloudで利用可能に
複雑なAIモデルに関するお客様の需要の高まりに応えるために、オラクルとNVIDIAは、NVIDIA Grace BlackwellをOCI上のNVIDIA DGX Cloudに追加します。このスーパーコンピューティング・サービスは、数兆パラメータの大規模言語モデルの時代でのエネルギー効率の高いトレーニングと推論を実現することを目指して共同設計され、お客様はこのサービスを通じて新しいGB200 NVL72ベースのインスタンスにアクセスできるようになります。
フル機能のDGX Cloudクラスタの構築には、20,000個を超えるGB200アクセラレータとNVIDIA CX8 InfiniBandネットワーキングが含まれ、スケーラビリティとパフォーマンスの高いクラウド インフラストラクチャを実現します。クラスタは、72基のBlackwell GPU NVL 72および36基のGrace CPUで構成され、第5世代のNVLinkを使用します。
提供開始時期
オラクルとNVIDIAのソブリンAIソリューションは、すぐに利用可能です。詳細については、ソブリンAIのページ(英語)を参照してください。
参考リンク