Finden Sie die richtige Lizenz, um KI für verschiedenste Anwendungen auf sämtlichen Plattformen bereitzustellen, auszuführen und zu skalieren.
GitHubFür Einzelpersonen, die für die Entwicklung auf den Open-Source-Code von Triton Inference Server zugreifen möchten |
NVIDIA NGCFür Einzelpersonen, die für die Entwicklung auf kostenlose Triton Inference Server-Container zugreifen möchten. |
NVIDIA AI EnterpriseFür Unternehmen, die Triton für Produktionszwecke kaufen möchten. |
|
---|---|---|---|
Merkmale |
|||
NVIDIA Triton™ Inference Server | |||
Benutzerdefinierte Builds (Windows, NVIDIA® Jetson™), PyTriton | |||
Vorgefertigter Docker-Container (Versionsabhängigkeiten: CUDA®, Framework-Backends) | |||
Triton Management-Dienst (Modellorchestrierung für umfangreiche Bereitstellungen) | |||
KI-Workflows und Referenzarchitekturen für gängige KI-Anwendungsfälle | |||
Funktionen für Workload- und Infrastrukturverwaltung | |||
Business-Standard-Support, einschließlich:
|
|||
Praxiskurse auf NVIDIA LaunchPad | |
||
SBleiben Sie mit Neuigkeiten zu KI-Inferenzen von NVIDIA immer auf dem Laufenden.