Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
NVIDIA 開創了加速運算技術,為全球開發人員、設計師和創作者突破創新極限,並改變全球最大的產業。NVIDIA 加速運算與 Google Cloud 的靈活性、全球範圍與規模相結合,可加速解決問題,並降低基礎架構的總體擁有成本,以適應運算密集型工作負載,如生成式人工智慧、資料分析、高效能運算 (HPC)、繪圖運算與遊戲等需要執行的任務。
NVIDIA 與 Google Cloud 在生成式人工智慧堆疊的每一層都互相合作,提供使用新一代基礎架構、企業級軟體與推論微服務的能力,並最佳化基礎模型,以加速從原型到實際執行部署的時間。
NVIDIA 與 Google Cloud 攜手合作,提供尖端的資料分析解決方案,讓企業從大量資料集中獲得寶貴見解,並利用資料驅動的決策與創新來開創嶄新的可能性。
Google Cloud 上的 NVIDIA 加速運算平台可以協助開發人員、科學家、工程師與研究人員處理生命科學、氣候建模、製造業、能源、量子模擬與金融服務等領域的複雜工作負載。
瞭解 Let’s Enhance 這家頂尖的電腦視覺新創公司如何利用 Google Kubernetes Engine (GKE) 的 NVIDIA 人工智慧平台,將人工智慧技術的照片編輯服務部署到產品中,將傳輸量提升 80 % ,並降低 34% 的成本。
瞭解這個適用於企業的完整堆疊生成式人工智慧平台,如何利用 GKE 的 NVIDIA H100 和 L4 Tensor 核心 GPU,與 NVIDIA NeMo™ 框架和 TensorRT™-LLM 一起訓練及部署超過 17 種大型語言模型 (LLM),擴充至 700 億個參數。
LiveX 人工智慧利用搭載 NVIDIA GPU 的 GKE 上的 NVIDIA NIM™ 推論微服務強大功能,將 token 平均速度提升 6.1 倍。這項增強功能可讓 LiveX 人工智慧即時為客戶提供個人化體驗,包括順暢的客戶支援、即時產品推薦,並降低退貨的情況。
從 Google Compute Engine (GCE) 上最新的 NVIDIA GPU 的廣泛產品組合中選擇,可以加速各種運算密集型工作負載,包括分佈式 LLM 訓練、即時人工智慧推論、巨量資料框架上的資料密集型分析、高效能運算中的科學模擬與建模,以及渲染逼真的 3D 繪圖運算與沉浸式虛擬環境。
Google Cloud A3 VM 是由 8 個 NVIDIA H100 Tensor 核心 GPU 驅動,非常適合訓練和服務大型語言模型與生成式人工智慧工作負載。A3 Mega VM 提供 A3 VM GPU 到 GPU 的 2 倍網路頻寬,是分佈式人工智慧訓練和推論工作負載的最佳選擇。
Google Cloud G2 VM 可以存取 1、2、4或 8 個 NVIDIA L4 Tensor 核心 GPU,非常適合加速各種工作負載,包括生成式人工智慧推論、人工智慧影片處理、HPC、繪圖渲染與視覺化。
Google Cloud 將成為首批提供 NVIDIA Blackwell 平台的雲端供應商,採用 NVIDIA GB200 NVL72 和 HGX™ B200,以支援萬億參數規模模型的即時運算推論與大規模訓練效能,開創了一個全新的運算時代。NVIDIA GB200 將首先用於 Google Cloud 的 NVIDIA DGX™ Cloud平台。
NVIDIA 直接在 Google Cloud Marketplace 平台上提供全面且效能最佳化的軟體堆疊,以釋放尖端 NVIDIA 加速基礎架構的全部潛力,並減少在 Google Cloud 上建構加速解決方案的複雜性。這樣可以透過改善效能、精簡部署並簡化開發來降低總體擁有成本。
WPP
NVIDIA DGX Cloud 是一款人工智慧平台,可在各層與 Google Cloud 共同設計,提供開發人員專用且可擴充的存取權限,來獲得最新的 NVIDIA 架構。DGX Cloud 經過最佳化後,可替現今的 AI 工作負載提供最高效能,直接使用 NVIDIA 人工智慧專家來協助實現資源效率與利用率最大化。DGX Cloud 目前在 Google Cloud 上推出,NVIDIA Grace™ Blackwell 即將推出。
Foretellix
NVIDIA AI Enterprise 是一款雲端原生平台,可簡化生產級人工智慧解決方案的開發與部署,包括生成式人工智慧、電腦視覺、語音人工智慧等。易於使用的微服務提供最佳化的模型效能,並具備企業級的安全性、支援與穩定性,確保以人工智慧技術經營業務的企業從原型順利轉換到生產。
NVIDIA NIM 是 NVIDIA AI Enterprise 的一環,是一套易於使用的推論微服務,可加速部署需要理解及產生自然語言的人工智慧應用。NIM 為開發人員提供業界標準的 API,可以支援打造強大的副駕駛 (copilot)、聊天機器人與人工智慧助理,同時讓 IT 和 DevOps 團隊輕鬆在其各自管理的環境中自託管人工智慧模型。NVIDIA NIM 可以在 GCE、GKE 或 Google Cloud Run 上部署。
NVIDIA 與 Google Cloud 緊密合作,將完整堆疊 NVIDIA 人工智慧平台的強大功能應用於各種原生 Google Cloud 服務,讓開發人員可以靈活選擇所需的抽象程度。透過這些整合,Google Cloud 的客戶可以結合企業級 NVIDIA 人工智慧軟體與運算能力,在已經熟悉的 Google Cloud 服務中實現應用效能。
將 NVIDIA 人工智慧平台的強大功能與 GKE 的靈活性和可擴充性相結合,能高效管理及擴充生成式人工智慧訓練與推論及其他運算密集型工作負載。GKE 的隨選佈建、自動擴充、NVIDIA 多執行個體 GPU (MIG) 支援與 GPU 分時功能,可確保資源得到最佳利用。這樣可以將營運成本降至最低,同時為要求嚴苛的人工智慧工作負載提供必要的運算能力。
將 NVIDIA 加速運算的強大功能與 Google Cloud 的 Vertex AI 整合,這是一個全託管、統一的 MLOps 平台,適合在實際執行環境中建置、部署及擴充人工智慧模型。利用 Vertex AI Training、Prediction、Pipelines 和 Notebook 中最新的 NVIDIA GPU 與 NVIDIA 人工智慧軟體 (例如 Triton™ Inference Server),來加速生成式人工智慧開發與部署,而無需複雜的基礎架構管理。
利用 NVIDIA RAPIDS™ 加速器,在 Google Cloud 全託管的資料處理服務中,無須變更程式碼,即可加速 Apache Spark 和 Dask 工作負載。這樣可以加快資料處理、擷取、轉換與載入 (ETL) 作業與機器學習工作流程,同時大幅降低基礎架構成本。使用者利用 RAPIDS 加速器,可以在 Dataproc Serverless 中加速批次處理工作負載,而無須佈建叢集。
利用 Google Cloud Dataflow 的 NVIDIA 人工智慧技術來加速機器學習推論,這項託管服務可用於執行各種資料處理模式,包括串流分析和批次分析。使用者可以使用 NVIDIA TensorRT 與 Apache Beam SDK 的整合來最佳化人工智慧模型的推論效能,並利用 Dataflow 支援的 NVIDIA GPU 在資料處理流程中加速複雜的推論情境。
利用 NVIDIA NIM 在 Google Cloud Run 上快速部署生成式人工智慧,這是一個全託管、無伺服器的運算平台,適用於在 Google Cloud 的基礎架構上部署容器。使用者可以透過 Cloud Run 中的 NVIDIA GPU 的支援,利用 NIM 最佳化效能並在缺乏基礎架構管理的無伺服器環境中,將生成式人工智慧模型加速部署到實際作業環境中。
利用動態工作負載排程器來輕鬆使用 NVIDIA GPU 功能,可以實現人工智慧訓練、微調與實驗等短期工作負載。使用者可透過靈活的排程和精確的資源分配,在 GKE、Vertex AI 和 Batch 等服務中取得所需的運算資源,同時利用執行人工智慧工作負載來提升資源利用率並最佳化成本。
NVIDIA 正與 Google 合作發佈 Gemma 這個以建立 Gemini 模型的相同研究與技術所打造的、全新最佳化的開放模型系列。最佳化版本的 TensorRT-LLM 讓使用者只需使用搭載 NVIDIA RTX™ GPU 的桌上型電腦就能利用 LLM 技術開發。
RAPIDS cuDF 現已整合到 Google Colab。開發人員可以在 Google Colab GPU 執行個體上立即將 pandas 的程式碼速度加快 50 倍,並隨著資料成長繼續使用 pandas 且不影響效能。
NVIDIA 新創鏈結計畫協助新創公司利用開發人員資源與訓練、取得雲端積分、NVIDIA 軟硬體專屬定價,以及接觸風險投資社群的機會來加速創新。
NVIDIA 隱私權政策