Le serveur d’inférence Triton prend en charge tous les principaux frameworks de l’industrie tels que TensorFlow, NVIDIA® TensorRT™, PyTorch, ONNX Runtime, ainsi que les frameworks backend personnalisés. Il donne aux chercheurs en IA et aux data scientists la liberté de choisir librement le framework le mieux adapté à leur projet.
Simplifiez le déploiement de vos modèles
Tirez parti du serveur d’inférence NVIDIA Triton pour déployer facilement des modèles d’IA multi-frameworks en toute évolutivité.