Triton Inference Server supporta tutti i principali framework come TensorFlow, NVIDIA® TensorRT™, PyTorch, ONNX Runtime e framework back-end personalizzati. Fornisce ai ricercatori e agli esperti di dati in ambito IA la libertà di scegliere il framework giusto per il loro progetto.
Semplificare la distribuzione dei modelli
Usa NVIDIA Triton Inference Server per distribuire facilmente modelli di intelligenza artificiale multi-framework su larga scala.