NVIDIA DGX Cloud を使い始める方法

NVIDIA AI を最大限に活用するクラウド ファーストの方法を発見しましょう。

NVIDIA DGX Cloud Lepton でグローバルにデプロイ

仮想グローバル AI ファクトリーに接続しましょう。このプラットフォームは、複数のクラウドにまたがって、GPU リソースの発見、調達、活用を一貫した体験で提供し、開発からデプロイまでのライフサイクルを支援します。

信頼できるクラウドで AI を高速化

AWS、Google Cloud、Microsoft Azure、Oracle Cloud 上の DGX™ Cloud を活用しましょう。柔軟性と専門知識を備えた大規模なトレーニング クラスターが実現します。

NVIDIA Cloud Functions (NVCF) で簡単に拡張する方法

推論パイプラインやデータ前処理ワークフローを簡単にパッケージ化し、NVIDIA GPU 向けに最適化されたコンテナにデプロイできるため、基盤となるインフラストラクチャを懸念する必要はありません。

インフラを最適化する AI パフォーマンスのベンチマーク

NVIDIA DGX Cloud Benchmarking における AI ワークロードのパフォーマンス結果を比較し、NVIDIA GPU での成果を最大化するとともに、AI インフラストラクチャを最適化します。

NVIDIA Cosmos Curator をクラウド ファーストで利用する方法

DGX Cloud 上の NVIDIA Cosmos™ Curator で大規模な動画キュレーションを高速化し、世界基盤モデルをカスタマイズ

DGX Cloud で NVIDIA Omniverse を入手

ストリーミングされる産業デジタル化およびフィジカル AI シミュレーション アプリケーションを、シンプルかつスケーラブルにデプロイできるフルマネージド プラットフォームにアクセスしましょう。

FAQ

NVIDIA DGX Cloud は、主要クラウド上の統合 AI プラットフォームであり、進化するワークロード向けにソフトウェア、サービス、AI の専門知識によりパフォーマンスを最適化します。DGX Cloud のすべての層は NVIDIA によって最適化され、管理されており、クラウドにおける NVIDIA の最高のパフォーマンスを保証します。 フルマネージド プラットフォームとサービスで構成されたスイートで、エージェント型 AI およびフィジカル AI の時代に、あらゆる組織が開発からデプロイまでの段階に AI ワークロードを導入できるようにします。NVIDIA DGX Cloud には、NVIDIA NeMo Curator on DGX Cloud、DGX Cloud Create、DGX Cloud Serverless Inference、DGX Cloud Lepton、DGX Cloud 上の NVIDIA Omniverse、DGX Cloud Benchmarking が含まれています。

  • DGX Cloud Lepton を使うことで、複数の GPU クラウド上で AI ワークロードの開発とデプロイができ、組み込みのマーケットプレイスから計算リソースを簡単に検索して購入することができます。
  • CSP で DGX Cloud を活用することで、柔軟な契約期間で大規模クラスターを使用した事前学習とファインチューニングを行うことができます。
  • NVIDIA Cloud Functions を、自動スケーリング、コスト効率の高い GPU 利用率、マルチ クラウドの柔軟性を備えた、本番環境グレードの推論に活用します。
  • DGX Cloud Benchmarking を試し、チップ、クラウド プラットフォーム、アプリケーション構成など、AI ワークロードやプラットフォーム全体でトレーニングと推論のパフォーマンスを測定してみてください。
  • DGX Cloud で NVIDIA Cosmos Curator を使用して、大規模な動画キュレーションをお試しください。
  • NVIDIA Omniverse を DGX Cloud 上で利用すれば、産業用および物理シミュレーション AI アプリケーションの展開を簡素化することができます。