El servidor de inferencia NVIDIA Triton simplifica la implementación de modelos de aprendizaje profundo a escala en producción, ya sea en GPU o CPU. Admite todas las plataformas principales, ejecuta varios modelos simultáneamente para aumentar el rendimiento y la utilización, y se integra con las herramientas de DevOps para una producción optimizada que es fácil de configurar.
Estas capacidades se combinan para reunir a científicos de datos, desarrolladores y operadores de TI para acelerar el desarrollo y la implementación de IA en producción.