あらゆるプラットフォームであらゆるアプリケーションに AI を展開、実行、拡張するためのライセンスが見つかります。
GitHubTriton Inference Server オープンソース コードを利用して開発したい個人のお客様向け。 |
NVIDIA NGC™無料の Triton Inference Server コンテナーを利用して開発したい個人のお客様向け。 |
NVIDIA AI Enterprise本番環境向けに Triton の購入を検討している法人向け。 |
|
特長 |
|||
NVIDIA Triton™ Inference Server | |||
カスタム ビルド (Windows、NVIDIA® Jetson™)、PyTriton | |||
構築済み Docker コンテナー (バージョンの依存関係: CUDA®、フレームワーク バックエンド) | |||
Triton 管理サービス (大規模な展開のためのモデル オーケストレーション) | |||
一般的な AI ユースケースのための AI ワークフローとリファレンス アーキテクチャ | |||
ワークロードとインフラストラクチャの管理機能 | |||
以下を含むビジネス標準サポート:
|
|||
ハンズオン NVIDIA LaunchPad ラボ | |
||
AI 推論関連の最新情報を NVIDIA から受け取る。