Le serveur d’inférence NVIDIA Triton simplifie le déploiement et la mise à niveau de vos modèles d’IA dédiés à la production, sur CPU comme sur GPU. Compatible avec les principaux frameworks de l’industrie, il peut exécuter plusieurs modèles simultanément pour optimiser le rendement et la densité d’utilisation, et il s’intègre avec les outils DevOps pour rationaliser la production et simplifier la configuration.
Toute ces fonctionnalités se placent au service des data scientists, des développeurs et des administrateurs informatiques afin d’accélérer le développement des modèles d’IA et d’assurer une mise en production plus rapide.