推論

NVIDIA Triton 推論伺服器

在任何平台上的任何應用程式部署、執行並擴充人工智慧。

簡介

針對每個人工智慧工作負載進行推論

透過 NVIDIA Triton™ 推論伺服器,在任何處理器 (GPU、CPU 或其他) 上的任何框架,在經過訓練的機器學習或深度學習模型上進行推論。Triton 推論伺服器是一款開放原始碼軟體,可標準化每個工作負載的人工智慧模型部署和執行。它是 NVIDIA 人工智慧平台的一部分,可透過 NVIDIA AI Enterprise 提供。

部署、最佳化並為 LLM 建立基準測試

利用 Triton 推論伺服器,取得如何高效提供大型語言模型 (LLM) 的逐步說明。

功能

探索 NVIDIA Triton 推論伺服器的功能與工具

支援所有訓練和推論框架

大型語言模型推論

Triton 可為大型語言模型 (LLM) 推論提供低延遲和高傳輸量。支援 TensorRT-LLM 這款開放原始碼程式庫,適用於實際執行中定義、最佳化及執行 LLM 推論。

在任何平台進行高效能推論

模型組合

Triton 模型組合可讓您透過多種模型、工作流程,以及處理前後的步驟執行人工智慧工作負載。可支援在 CPU 或 GPU 上執行不同部分的整套組合,並在整套組合內支援多個框架。

開放原始碼且專為 DevOps 和 MLOps 設計

NVIDIA PyTriton

PyTriton 讓 Python 開發人員透過單行程式碼引進 Triton,用來提供模型、簡單的處理功能或整個推論工作流程,進而加速原型設計和測試。

企業級安全性和 API 穩定性

NVIDIA Triton Model Analyzer

Model Analyzer 可縮短找到最佳模型部署配置所需的時間,例如批次大小、精準度和並行執行個體。這有助於選擇最佳配置,以符合應用程式在延遲、傳輸量和記憶體上的需求。

優勢

Triton 推論伺服器的優勢

支援所有訓練和推論框架

支援所有訓練和推論框架

透過 Triton 推論伺服器,在任何主要架構部署人工智慧模型,包括 TensorFlow、PyTorch、Python、ONNX、NVIDIA® TensorRT™、RAPIDS™ cuML、XGBoost、scikit-learn RandomForest、OpenVINO、客製化 C++ 等。

在任何平台進行高效能推論

在任何平台進行高效能推論

透過動態批次處理、並行執行、最佳配置以及串流音訊和影片,將傳輸量和使用率最大化。Triton 推論伺服器支援所有 NVIDIA GPU、x86、Arm CPU 和 AWS Inferentia。

開放原始碼且專為 DevOps 和 MLOps 設計

開放原始碼且專為 DevOps 和 MLOps 設計

將 Triton 推論伺服器整合到 DevOps 和 MLOps 解決方案,例如適用於擴充的 Kubernetes 和適用於監控的 Prometheus。也可用於所有主要的雲端和本機人工智慧和 MLOps 平台。

企業級安全性和 API 穩定性

企業級安全性、管理能力和 API 穩定性

NVIDIA AI Enterprise (包括 NVIDIA Triton 推論伺服器) 是一款安全、可用於實際部署環境的人工智慧軟體平台,旨在透過支援、安全性和 API 穩定性加速實現價值。

開始選項

開始使用 NVIDIA Triton

使用正確的工具與技術,實現 AI 在任何平台上的部署、運行和擴展,以滿足各種應用需求。

開發

適用於想要取得 Triton 推論伺服器開放原始碼以進行開發的使用者。

開發

適用於想要使用免費 Triton 推論伺服器容器進行開發的使用者。

體驗

取用 NVIDIA LaunchPad 免費提供的 NVIDIA 託管的基礎架構,以及包含逐步指導及範例的實作實驗室。

部署

利用現有基礎架構,獲得免費授權,試用 NVIDIA AI Enterprise 90 天。

使用案例

Triton 的使用方式

瞭解產業領導者如何利用 Triton 推論伺服器推動創新。

統一推論伺服器

Triton 推論伺服器可支援組織將特定框架的推論伺服器整合到統一的平台中。但它並不是為每個人工智慧框架部署及管理獨立的伺服器,而是充當單一的統一伺服器,藉此降低推論服務成本。Triton 推論伺服器支援所有主要的人工智慧框架,包括 PyTorch、TensorFlow、TensorRT-LLM、VLLM、TensorRT、ONNX 與 OpenVINO。

等待核准

客戶案例

瞭解產業領導者如何利用 Triton 加強模型部署

T-Mobile 客戶案例
Snapchat

利用人工智慧改善購買服裝的體驗

瞭解 Snapchat 如何運用 Triton,加強置裝的體驗與支援表情符號的光學字元辨識,以擴大規模、降低成本,並縮短部署時間。

RingCentral 客戶案例
Docusign

透過 NVIDIA 推論平台加速協議管理

探索 Docusign 如何利用 Triton 和 Azure 解鎖合約資訊、將協議資料轉化為見解,並提升部署能力。

Tarteel.ai 客戶案例
Oracle Cloud

NVIDIA Triton 加速 Oracle Cloud 推論

瞭解 Oracle Cloud Infrastructure 的電腦視覺和資料科學服務如何透過 NVIDIA Triton 推論伺服器加快人工智慧預測速度。

採用者

各行各業的頂尖採用者

Amazon
美國運通
Azure AI 翻譯工具
Encord
GE Healthcare
InfoSys
Intelligent Voice
Nio
Siemens Energy
Trax Retail
美國郵政
雅虎日本

資源

NVIDIA Triton 相關資源的最新消息

Triton 最新消息

獲得最新消息

閱讀有關 Triton 推論伺服器的最新推論更新和公告。

Triton 技術部落格

探索技術部落格

閱讀如何著手推論的技術逐步介紹。

Triton 白皮書

深入探索

取得部署、執行及擴展人工智慧模型的提示和最佳做法,以進行生成式人工智慧、LLM、推薦系統、電腦視覺等推論。

下一步

準備好開始了嗎?

利用正確的工具與技術,建立及部署可完全客製化、多語言、語音和翻譯人工智慧應用程式。

裝飾

開發人員專用

探索著手開發 NVIDIA Riva 所需的一切,包括最新文件、教學課程與技術部落格等。

裝飾

與我們聯絡

請與 NVIDIA 產品專家討論,瞭解如何利用 NVIDIA AI Enterprise 的安全性、API 穩定性與支援,讓產品從試產階段順利進入部署環境。

Select Location
Middle East