Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
NVIDIA は、世界中の開発者、デザイナー、クリエイターの革新の限界を押し上げ、世界最大の産業を変革するためにアクセラレーテッド コンピューティングを先駆けてきました。NVIDIA のアクセラレーテッド コンピューティングと、Google Cloud の柔軟性、グローバルなリーチ、および規模を組み合わせることで、生成 AI、データ分析、ハイパフォーマンスコンピューティング (HPC)、グラフィックス、ゲームなどの計算負荷の高いワークロードを必要とされる任意の場所で使用する際のソリューション提供までの時間を短縮し、インフラストラクチャの TCO を削減します。
NVIDIA と Google Cloud は、生成 AI スタックのあらゆる層にわたって提携しており、次世代インフラストラクチャ、エンタープライズグレードのソフトウェア、推論マイクロサービスへのアクセスの提供と基盤モデルの最適化を行い、プロトタイプから本番環境へのデプロイまでの時間を高速化します。
NVIDIA と Google Cloud は、最先端のデータ分析ソリューションの提供に向けて提携しており、企業が膨大なデータセットの中から貴重な洞察を取得し、データに基づく意思決定とイノベーションで新しい可能性を開拓できるようサポートします。
Google Cloud 上の NVIDIA アクセラレーテッド コンピューティング プラットフォームは、ライフサイエンス、気候モデリング、製造、エネルギー、量子シミュレーション、金融サービスなどの分野で複雑なワークロードに取り組む開発者、科学者、エンジニア、研究者に役立ちます。
コンピュータビジョンの大手スタートアップ企業である Let's Enhance が、Google Kubernetes Engine (GKE) 上の NVIDIA AI プラットフォームを使用して、AI 搭載の写真編集サービスをどのようにして本番環境用に展開し、スループットを 80% 向上させ、コストを 34% 削減したのかについてご覧ください。
企業向けのフルスタック型の生成 AI プラットフォームである Writer が、NVIDIA NeMo™ フレームワークと TensorRT™-LLM で GKE 上の NVIDIA H100 と L4 Tensor コア GPU を活用して、最大 700 億のパラメータを拡張する 17 以上の大規模言語モデル (LLM) をどのようにトレーニングおよびデプロイしているのかについてご覧ください。
NVIDIA GPU を搭載した GKE 上の NVIDIA NIM™ 推論マイクロサービスの性能を活用することで、LiveX AI は平均トークンの速度を 6.1 倍向上させました。この強化により、LiveX AI はシームレスな顧客サポート、瞬時の推奨製品の提供、返答待ち時間の削減など、パーソナライズされた体験を顧客にリアルタイムで提供できます。
Google Compute Engine (GCE) 上の最新の NVIDIA GPU の幅広いポートフォリオから選び、幅広い種類のコンピューティング負荷の高い作業を高速化しましょう。分散 LLM トレーニング、リアルタイム AI 推論、ビッグデータ フレームワークのデータ集中分析、HPC における科学シミュレーションとモデリング、フォトリアリスティックな 3D グラフィックスや没入型の仮想環境のレンダリングなどの高速化が見込めます。
Google Cloud A3 VM は、8 つの NVIDIA H100 Tensor コア GPU を搭載しており、LLM や生成 AI ワークロードのトレーニングやサービスに最適です。A3 Mega VM は、A3 VMの 2 倍の GPU 間ネットワーク帯域幅を提供するため、分散型 AI トレーニングや推論ワークロードに最適です。
Google Cloud G2 VM は、1 つ、2 つ、4 つ、または 8 つのNVIDIA L4 Tensor Core GPU へのアクセスを提供するため、生成 AI 推論、AI ビデオ処理、HPC、グラフィックス レンダリング、および可視化を含む幅広いワークロードの高速化に理想的です。
Google Cloud は、NVIDIA Blackwell プラットフォームを NVIDIA GB200 NVL72 と HGXTM B200 の 2 つの構成で提供する初のクラウドプロバイダーであり、リアルタイム LLM 推論と 1 兆パラメータ規模のモデル向けの大規模なトレーニング パフォーマンスを備えたコンピューティングの新時代を実現します。NVIDIA GB200 は、Google Cloud 上の NVIDIA DGX™ Cloud で初めて利用可能になります。
NVIDIA は、パフォーマンスが最適化された包括的なソフトウェア スタックを Google Cloud Marketplace で直接提供しており、最先端の NVIDIA アクセラレーテッド インフラの可能性を最大限に引き出して、Google Cloud 上でアクセラレーテッド ソリューションを構築する際の複雑さを軽減することができます。これにより、パフォーマンスの向上、デプロイの簡素化、開発の合理化を通して、TCO を低減します。
WPP
NVIDIA DGX Cloud は、開発者に最新の NVIDIA アーキテクチャにアクセスするための拡張可能な専用アクセスを提供する AI プラットフォームであり、すべての層が Google Cloud と共同設計されています。DGX Cloud は、今日の AI ワークロード向けに非常に優れたパフォーマンスを提供するように最適化されており、リソースの効率と利用を最大化する NVIDIA AI エキスパートに直接アクセスできます。DGX Cloud は現在 Google Cloud で利用可能であり、NVIDIA Grace™ Blackwell も近日中に公開を予定しています。
Foretellix
NVIDIA AI Enterprise は、生成 AI、コンピュータ ビジョン、音声 AI などを含む本番 AI ソリューションの開発とデプロイを合理化するクラウドネイティブ プラットフォームです。使いやすいマイクロサービスが、エンタープライズグレードのセキュリティ、サポート、安定性で最適化されたモデルのパフォーマンスを提供し、AI でビジネスを運営する企業のプロトタイプから本番へのスムーズな移行を保証します。
NVIDIA AI Enterprise の一部である NVIDIA NIM は、自然言語の理解と生成を必要とする AI アプリケーションのデプロイを高速化するための使いやすい推論マイクロサービスのセットです。開発者に業界標準の API へのアクセスを提供することで、NIM は強力なコパイロット、チャットボット、AI アシスタントの作成を可能にすると共に、IT チームや DevOps チームが自社の管理環境内から簡単に AI モデルをセルフホストできるようにします。NVIDIA NIM は、GCE、GKE、または Google Cloud Run にデプロイできます。
NVIDIA と Google Cloud は、フルスタックの NVIDIA AI プラットフォームの能力を幅広いネイティブ Google Cloud サービスと統合するために緊密に提携しており、開発者が必要な抽象化レベルを柔軟に選択できるようにしています。これらの統合により、Google Cloud のお客様は、エンタープライズグレードの NVIDIA AI ソフトウェアと NVIDIA GPU の計算能力を組み合わせて、既に使い慣れている Google Cloud サービス内のアプリケーションのパフォーマンスを最大限に引き出すことができます。
NVIDIA AI プラットフォームのパワーを、GKE の柔軟性と拡張性と組み合わせることで、生成 AI トレーニングおよび推論やその他の計算負荷を効率的に管理し、拡張できます。GKE に備わるオンデマンドプロビジョニング、自動スケーリング、NVIDIA マルチインスタンス GPU (MIG) サポート、GPU 時間共有機能が、最適なリソースの利用を確保します。これにより、運用コストを最小限に抑えながら、要求の厳しい AI ワークロードに必要な計算能力を発揮します。
NVIDIA のアクセラレーテッド コンピューティングのパワーと、本番環境で AI モデルの構築、デプロイ、およびスケーリングを実施できる完全に管理された統合型 MLOps プラットフォームである Google Cloud の Vertex AI を組み合わせることができます。最新の NVIDIA GPU と Vertex AI Training、Prediction、Pipelines、Notebooks 内の Triton™ Inference Server などの NVIDIA AI ソフトウェアを活用することで、インフラ管理の複雑さを伴わずに、生成 AI 開発とデプロイを高速化します。
NVIDIA RAPIDS™ Accelerator for Spark を活用することで、Google Cloud の完全に管理されたデータ処理サービスである Dataproc 上で、コードを変更することなく Apache Spark や Dask ワークロードを高速化できます。これにより、データ処理、抽出、変換、ロード (ETL) 操作、機械学習パイプラインの高速化が可能になり、インフラコストが大幅に削減されます。さらに RAPIDS Accelerator for Spark を使用することで、ユーザーはクラスタをプロビジョニングせずに Dataproc Serverless 内のバッチワークロードを高速化することもできます。
ストリーミングやバッチ分析の両方を含む、さまざまなデータ処理パターンを実行するためのマネージドサービス、Google Cloud Dataflowで、NVIDIA AI を使用して、機械学習推論を高速化します。ユーザーは、NVIDIA TensorRT と Apache Beam SDK の統合を使用して AI モデルの推論パフォーマンスを最適化し、Dataflow でサポートされている NVIDIA GPU を使用してデータ処理パイプライン内の複雑な推論シナリオを高速化することができます。
Google Cloud のインフラストラクチャ上にコンテナをデプロイすることができる、完全に管理されたサーバーレス コンピューティング プラットフォームである Google Cloud Run で NVIDIA NIM を使用して、生成 AI デプロイの迅速化をさらに加速できます。Cloud Run 内の NVIDIA GPU にバックアップされたパワーにより、ユーザーはインフラストラクチャ管理を抽象化するサーバーレス環境で、NIM を活用してパフォーマンスを最適化し、生成 AI モデルの本番環境へのデプロイを高速化することができます。
動的ワークロード スケジューラを使用して、AI トレーニング、微調整、実験などの短期間のワークロードのために、Google Cloud 上から NVIDIA GPU の能力に簡単にアクセスできます。柔軟なスケジューリングとアトミックなプロビジョニングにより、ユーザーは GKE、Vertex AI、Batch などのサービス内の必要なコンピューティングリソースにアクセスすると同時に、リソースの利用率を向上させ、AI ワークロードの実行に伴うコストを最適化することができます。
NVIDIA は、Google と協力し、Gemini モデルを作成するために使用されたのと同じ研究と技術から構築されたオープンモデルを新たに最適化された製品ファミリとなる Gemma を立ち上げました。TensorRT-LLM で最適化されたリリースであり、ユーザーは NVIDIA RTX™ GPU を搭載したデスクトップのみを使用して LLM で開発することができます。
RAPIDS cuDF が Google Colab に統合されました。開発者は、パフォーマンスを犠牲にすることなく、Google Colab GPU インスタンス上で pandas コードを最大 50 倍までに瞬時に高速化し、データが増大する中でも pandas を使用し続けることができます。
NVIDIA Inception プログラムは、開発者リソースとトレーニング、クラウド クレジットへのアクセス、NVIDIA ソフトウェアとハードウェアの優待価格、VC コミュニティと交流できる機会などを通して、スタートアップ企業がイノベーションを加速できるように支援します。
NVIDIA プライバシー ポリシー