NVIDIA AI

使用 NVIDIA NIM 即時部署生成式 AI

探索最新的社群構建 AI 模型,這些模型經由 NVIDIA 最佳化和加速的 API,並可透過 NVIDIA NIM™ 推論微服務隨處部署。

立即體驗的開放式模型


整合

只需呼叫 API 即可加速人工智慧

使用常用的 API 快速開始執行。

與熱門函式庫順暢相容

只需三行程式碼,即可在現有工具和應用程式使用 NVIDIA API。

使用您喜愛的工具

運用您最愛的大型語言模型 (LLM) 程式設計框架 (包括 LangChain 和 LlamaIndex),將最新人工智慧模型輕鬆整合至您的應用。

NIM Agent 藍圖

打造具影響力的生成式人工智慧應用所需的一切資源。 每份藍圖都包括了 NVIDIA NIM 和合作夥伴微服務、樣本程式碼、自訂指令,以及部署適用的 Helm Chart。


隨處皆可執行

使用 NVIDIA NIM 加速人工智慧部署

NVIDIA NIM 是 NVIDIA AI Enterprise 的一部分,這套易於使用的微服務可提升基礎模型在任何雲端或資料中心的部署速度,且有助於保障資料安全。

Accelerate Your AI Deployment With NVIDIA NIM

部署 NIM

使用單一命令即可為模型部署 NIM。您也能用經微調的模型,輕鬆執行 NIM。

執行推論

根據 NVIDIA 加速基礎架構,透過最佳執行階段引擎執行 NIM。

建置

開發人員只需編寫幾行程式碼,就能整合自行託管的 NIM 端點。

Deploy
Run
Build
docker run nvcr.io/nim/publisher_name/model_name
curl -X 'POST' \ 'http://0.0.0.0:8000/v1/completions' \ -H 'accept: application/json' \ -H 'Content-Type: application/json' \ -d '{ "model" : "model_name", "prompt" : "Once upon a time", "max_tokens" : 64 }'
import openai client = openai.OpenAI( base_url = "YOUR_LOCAL_ENDPOINT_URL", api_key="YOUR_LOCAL_API_KEY" ) chat_completion = client.chat.completions.create( model="model_name", messages=[{"role" : "user" , "content" : "Write me a love song" }], temperature=0.7 )

使用 Kubernetes 在本機啟動或進行擴充

從單一裝置到資料中心規模,在任何 NVIDIA 加速的基礎架構上,流暢地部署容器化人工智慧微服務。

安全部署

仰賴生產級執行階段 (包括持續進行的安全性更新),並透過企業級支援的穩定 API 執行企業應用。

降低成本和碳足跡

在 NVIDIA 加速基礎架構上,有了持續針對低延遲度和高輸送量進行最佳化的人工智慧執行階段,便能降低在生產環境中執行模型的營運成本。

輸送量

NVIDIA NIM 提供開箱即用的最佳化輸送量和延遲度,實現 Token 生成最大化,支援尖峰時段並行作業的使用者,並提升反應能力。

Configuration: Llama3.1-8B-instruct, 1 x H100SXM; input 1000 tokens, output 1000 tokens. Concurrent requests: 200. NIM ON : FP8. throughput 6,354 tokens/s, TTFT 0.4s, ITL: 31ms. NIM OFF : FP8. throughput 2,265 tokens/s, TTFT 1.1s, ITL: 85ms

客製化

為您的特定領域需求量身訂製的 NIM 微服務

透過 NVIDIA NeMo 進行模型微調

NVIDIA NeMo™ 是一款端對端平台,適用在任何地方開發自訂生成式人工智慧。 其中包括訓練、客製化與檢索增強生成 (RAG)、防護、資料管理與模型預先訓練的工具,為企業提供簡單、符合成本效益且快速的方式來採用生成式人工智慧。

瞭解 NVIDIA NIM 微服務實際使用狀況

立即開始

免費開始原型設計

開始使用操作簡單的 NVIDIA 管理的無伺服器 API。

  • 使用完全加速的人工智慧基礎架構。
  • 確保您的資料未被用於模型訓練。
  • 以 1,000 點推論積分免費開始使用。

下載和部署

執行 NVIDIA NIM,在您選擇的雲端或資料中心上擴充最佳化的人工智慧模型。

  • 確保資料永不離開安全隔離區。
  • 從雲端端點流暢地轉移到自託管的 API,無需變更程式碼。
  • 運用 NVIDIA AI Enterprise 授權進行生產,或免費開始使用 NVIDIA 開發者計畫

使用 NVIDIA AI Foundry 構建客製化生成式 AI 模型。

利用基礎模型、企業級軟體、加速運算能力和 AI 專家知識,為您的企業構建、調整並部署客製化模型。

使用案例

激發創新靈感

瞭解 NVIDIA API 如何支援產業使用案例,並透過精心設計的範例快速開始人工智慧開發。

虛擬人類

讓遊戲角色栩栩如生,或建立互動式虛擬角色來強化客戶服務,讓您的應用程式與使用者建立更深入的連結。

內容生成

根據企業的領域專業知識和專屬 IP,產生高度相關、量身打造且準確的內容。

生物分子生成

生物分子生成模型和 GPU 的運算能力可有效探索化學空間,快速產生針對特定藥物標靶或特性的不同小分子群。

生態系

加速發展企業人工智慧

加入頂尖合作夥伴的行列,一起使用我們生態系中的模型、工具組、向量資料庫、框架和基礎架構,開發您的人工智慧應用程式。

資源

解鎖、提升能力並升級

NVIDIA LaunchPad

使用實作實驗室解鎖人工智慧

針對開發框架、檢索增強生成 (RAG) 型的聊天機器人、路線最佳化等方面,透過引導式的實作實驗室,體驗端對端人工智慧解決方案。

NVIDIA 開發者計畫

加速人工智慧應用

透過 NVIDIA 開發者計畫免費使用 NIM,以用於應用程式開發、研究、測試及技術學習資源。

AI Workbench

微觀規劃,宏觀發展

NVIDIA AI Workbench 讓開發人員能靈活在本機或遠端的 GPU 驅動容器上執行支援 API 的模型,實現從實驗、原型製作到概念驗證的互動式專案工作流程。

最新消息

NVIDIA NIM 新聞報導

查看最新的 NVIDIA 新聞稿,瞭解 NIM 和生成式人工智慧將如何影響產業、合作夥伴和客戶等。

說明文件

探索技術文件,以透過 NVIDIA API 開始製作原型和打造企業人工智慧應用,或使用 NVIDIA NIM 擴充自己的基礎架構。