Trova la licenza giusta per distribuire, eseguire e scalare l'IA per qualsiasi applicazione su qualsiasi piattaforma.
GitHubPer gli utenti che desiderano accedere al codice open-source di Triton Inference Server per lo sviluppo |
NVIDIA NGCPer gli utenti che desiderano accedere ai container Triton Inference Server gratuiti per lo sviluppo. |
NVIDIA AI EnterprisePer le aziende che desiderano acquistare Triton per la produzione. |
|
---|---|---|---|
Caratteristiche |
|||
NVIDIA Triton™ Inference Server | |||
Build personalizzate (Windows, NVIDIA® Jetson™), PyTriton | |||
Container Docker precompilato (a seconda della versione: CUDA®, framework backend) | |||
Triton Management Service (orchestrazione dei modelli per distribuzioni su larga scala) | |||
Flussi di lavoro IA e architetture di riferimento per casi d'uso IA comuni | |||
Funzionalità di gestione dei carichi di lavoro e dell'infrastruttura | |||
Supporto standard aziendale, che include:
|
|||
Laboratori pratici NVIDIA LaunchPad | |
||
Resta aggiornato sulle novità sull'inferenza con IA di NVIDIA.