El servidor de inferencia Triton es compatible con todas las plataformas principales como TensorFlow, NVIDIA® TensorRT™, PyTorch, ONNX Runtime, así como las plataformas backend personalizadas. Proporciona a los investigadores de IA y a los científicos de datos la libertad de elegir la plataforma adecuada para su proyecto.
Simplificar la implementación del modelo
Aprovecha el servidor de inferencia NVIDIA Triton para implementar fácilmente modelos de IA multi-plataforma a escala.