サンフランシスコ - Google Cloud Next – 2023 年 8 月 29 日- Google Cloud と NVIDIA は本日、生成 AI 向けの大規模モデルの構築および展開と、データ サイエンスのワークロードの高速化のための新しい AI インフラストラクチャとソフトウェアを発表しました。
Google Cloud Next で行われた対談にて、Google Cloud の CEO である Thomas Kurian と NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は、NVIDIA のテクノロジに基づいて構築された Google Cloud 製品で AI スーパーコンピューターを簡単に実行できるようにするなど、この提携が世界最大の AI 顧客にエンドツーエンドの機械学習サービスをどのようにもたらすかについて語りました。新しいハードウェアとソフトウェアの統合には、Google DeepMind と Google Research チームが過去 2 年間に採用したものと同じ NVIDIA のテクノロジが利用されています。
ジェンスン フアンは次のように述べています。「アクセラレーテッド コンピューティングと生成 AI が一体となり、かつてないペースでイノベーションを加速させる転換点に私たちはいます。Google Cloud との協力拡大により、エネルギー効率を高め、コストを削減するインフラストラクチャ、ソフトウェア、サービスによって、開発者の作業を加速させます」
また、Thomas Kurian 氏は次のように述べています。「Google Cloud は、顧客のイノベーションを促進し、スピードアップするために、AI の革新に取り組んできた長い歴史があります。Google の製品の多くは、NVIDIA GPU 上で構築、提供されており、私たちの顧客の多くは、生成 AI を進化させる LLM の効率的な開発のために、NVIDIA のアクセラレーテッド コンピューティングを求めています」
AI とデータ サイエンスの開発を加速する NVIDIA との統合
大規模言語モデル (LLM) を構築するための Google のフレームワークである PaxML が、NVIDIA アクセラレーテッド コンピューティングに最適化されました。
もともと複数の Google TPU アクセラレーター スライスにまたがるように構築された PaxML は、現在、開発者が NVIDIA® H100 および A100 Tensorコア GPU を使用して、高度で完全にカスタマイズ可能な実装と拡張を行えるようになりました。GPU に最適化された PaxML コンテナは、NVIDIA NGC™ ソフトウェア カタログですぐに利用できます。さらに PaxML は、OpenXLA コンパイラを活用して GPU 用に最適化された JAX 上で動作します。
Google DeepMind をはじめとする他の Google の研究者は、探索的研究のために NVIDIA GPU と PaxMLを初めて使用しました。
PaxML 用の NVIDIA に最適化されたコンテナは、NVIDIA NGC コンテナ レジストリにて、次世代の AI 搭載アプリケーションを構築しようとしている世界中の研究者、スタートアップ、企業にまもなく提供されます。
さらに両社は、Google の Dataproc サービスを通じて、サーバーレス Sparkを NVIDIA GPU と統合することを発表しました。これにより、データ サイエンティストは Apache Spark のワークロードを高速化し、AI 開発のためのデータを準備できるようになります。
これらの新しい統合は、NVIDIA と Google の広範な協力関係の歩みの中で最新のもので、以下のハードウェアとソフトウェアの発表がありました。
- Google Cloud、NVIDIA H100 を搭載した A3 仮想マシンを発表 - Google Cloud は本日、NVIDIA H100 GPU を搭載した専用の Google Cloud A3 VM を来月から一般提供すると発表しました。前世代と比較して、A3 VM は 3 倍高速なトレーニングと、大幅に改善されたネットワーク帯域幅を提供します。
- NVIDIA H100 GPU が Google Cloud の Vertex AI プラットフォームで利用可能に - H100 GPU は今後数週間のうちに VertexAI にて一般利用可能になる見込みで、顧客は生成 AI 向けの大規模言語モデルを迅速に開発できるようになります。
- Google Cloud、NVIDIA DGX™ GH200 にアクセス - Google Cloud は、NVIDIA Grace Hopper™ スーパーチップを搭載した AI スーパーコンピューター NVIDIA DGX GH200 にアクセスできる世界初の企業の 1 つとなり、生成 AI ワークロードのための機能を活用します。
- NVIDIA DGX Cloud が Google Cloud に登場 - NVIDIA DGX Cloud AI スーパーコンピューティングとソフトウェアは、ウェブブラウザから直接利用できるようになり、高度なトレーニング ワークロードに高速化と拡張性を提供します。
- Google Cloud Marketplace 上の NVIDIA AI Enterprise - ユーザーは NVIDIA AI Enterpriseにアクセスすることができます。NVIDIA AI Enterprise は安全なクラウドネイティブのソフトウェア プラットフォームであり、生成 AI、音声 AI、コンピューター ビジョンなどを含むエンタープライズ対応のアプリケーションの開発と展開を簡素化します。
- Google Cloud が NVIDIA L4 GPU を初めて提供 - 今年初め、Google Cloud はG2 VM を発表し、NVIDIA L4 Tensor コア GPU を提供する初のクラウド プロバイダーとなりました。AI ビデオ ワークロードのために CPU から L4 GPU に切り替えるNVIDIAの顧客は、99% 優れた効率で最大 120 倍高いパフォーマンスを実現できます。L4 GPU は、画像やテキストの生成だけでなく、VDI、AI アクセラレーションによるオーディオ/ビデオのトランスコーディングなどに幅広く使用されています。
Google Cloud について
Google Cloud は、あらゆる組織のビジネスと業界のデジタル変革を加速します。Google Cloud は、Google の最先端技術を活用したエンタープライズ グレードのソリューションと、開発者の持続可能な開発を支援するツールを提供しています。Google Cloud は、200 以上の国と地域のお客様から、成長を実現し、最も重要なビジネス上の問題を解決するための信頼できるパートナーとして支持されています。
NVIDIA について
1993年の創業以来、NVIDIA(https://www.nvidia.com/ja-jp/) (NASDAQ: NVDA) はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、各種産業のデジタル化を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細は、こちらのリンクから:https://nvidianews.nvidia.com/