NVIDIA Triton Inference Server semplifica la distribuzione di modelli di deep learning ai su larga scala in ambienti di produzione, su GPU o CPU. Supporta tutti i framework principali, esegue più modelli simultaneamente per aumentare la velocità effettiva e l'utilizzo e si integra con gli strumenti DevOps per una produzione semplificata e facile da configurare.
Queste funzionalità si combinano per offrire a esperti di dati, sviluppatori e operatori IT la capacità di accelerare lo sviluppo e la distribuzione dell'intelligenza artificiale in ambienti di produzione.