Trouvez la licence appropriée pour déployer, exécuter et faire évoluer n’importe quelle application sur n’importe quelle plateforme.
Pour les utilisateurs individuels cherchant à accéder au code open-source du serveur d’inférence de Triton à des fins de développement.
Pour les utilisateurs individuels cherchant à accéder gratuitement aux conteneurs du serveur d’inférence de Triton à des fins de développement.
Pour les entreprises cherchant à faire l'acquisition de Triton pour la production.
Le serveur d’inférence NVIDIA Triton, plus communément appelé Triton, est une plateforme logicielle open-source pour l'inférence. Triton permet aux équipes de déployer, d’exécuter et de faire évoluer des modèles d'IA à partir de n’importe quel framework (incluant TensorFlow, NVIDIA TensorRT™, PyTorch, ONNX, XGBoost, Python) et sur n’importe quelle infrastructure GPU ou CPU (Cloud, Data Center ou Edge). Pour en savoir plus, rendez-vous sur la page web de Triton.
L'analyseur de modèles Triton est un outil hors ligne qui permet d’optimiser les configurations de déploiement des applications d'inférence (taille de batch, nombre d’instances de modèle, etc.) en fonction du rendement, de la latence et/ou des contraintes de mémoire sur le GPU ou le CPU cible. Il prend en charge l’analyse d’un modèle unique, de différents ensembles de modèles et de plusieurs modèles en simultané.
Triton est inclus à NVIDIA AI Enterprise, une plateforme logicielle pour l’IA de bout en bout offrant des fonctionnalités d'assistance, de sécurité, de stabilité et de gestion dédiées aux entreprises. NVIDIA AI Enterprise inclut une assistance commerciale standard qui vous donne accès à des experts en IA de NVIDIA, à des sessions de formation, aux ressources de la base de connaissances et à bien plus encore. Une assistance et des services additionnels pour les entreprises sont par ailleurs disponibles, incluant une assistance commerciale spécialisée, un gestionnaire de compte technique dédié, des offres de formation et des services professionnels. Pour en savoir plus, veuillez consulter le Guide d'utilisation de l'assistance et des services additionnels pour les entreprises.
Oui, plusieurs ateliers utilisent Triton via NVIDIA Launchpad.
NVIDIA LaunchPad est un programme qui fournit aux utilisateurs un accès à court terme aux solutions matérielles et logicielles d’entreprise de NVIDIA via un navigateur Web. Choisissez parmi un vaste catalogue de cours pratiques et expérimentez des solutions adaptées à des cas d’utilisation allant de l’IA à la Data Science en passant par la conception 3D et l’optimisation des infrastructures. Les entreprises peuvent accéder immédiatement aux solutions matérielles et logicielles requises sur une infrastructure hébergée de manière privée.
Oui, Triton est un écosystème incontournable pour les inférences et le déploiement des modèles d’IA. Triton est disponible sur AWS, Microsoft Azureet Google Cloud avec NVIDIA AI Enterprise. Il est également disponible sur Alibaba Cloud, Amazon Elastic Kubernetes Service (EKS), Amazon Elastic Container Service (ECS), Amazon SageMaker, Google Kubernetes Engine (GKE), Google Vertex AI, HPE Ezmeral, Microsoft Azure Kubernetes Service (AKS), Azure Machine Learninget la plateforme OCI (Oracle Cloud Infrastructure) pour la Data Science.
Suivez toute l’actualité des solutions d'IA de NVIDIA pour l'inférence.
Déclaration de confidentialité de NVIDIA