L'inférence d'IA, c'est-à-dire la façon dont nous expérimentons l'IA via des chatbots, des copilotes et des outils créatifs, évolue à un rythme exponentiel double. L'adoption par les utilisateurs s'accélère, tandis que les jetons d'IA générés par interaction, basés sur des workflows agentiques, un raisonnement à long terme et des modèles Mixture-of-Experts (MoE), s'envolent.
Pour permettre une inférence de cette ampleur, NVIDIA fournit une architecture à l'échelle des centres de données sur un rythme annuel. Notre conception conjointe matérielle et logicielle poussée améliore les performances du même ordre de grandeur, réduit le coût par jeton et génère plus de revenus et de profits.
NVIDIA Blackwell NVL72 offre des performances d'inférence plus de 10 fois supérieures à NVIDIA H200 sur une large gamme de modèles MoE, notamment Kimi K2 Thinking, DeepSeek-R1 et Mistral Large 3.
La plateforme d'inférence NVIDIA offre de nombreux avantages intégrés dans le framework Think SMART : l'échelle et l'efficacité, les performances multidimensionnelles, la conception d'architecture et de logiciel conjointe, un retour sur investissement axé sur les performances et un écosystème technologique étendu.
NVIDIA Blackwell offre des performances de pointe dans divers cas d'utilisation, en équilibrant efficacement plusieurs dimensions : débit, latence, intelligence, coût et rendement énergétique. Pour les modèles intelligents mixture-of-experts tels que Kimi K2 Thinking, DeepSeek-R1 et Mistral Large 3, les utilisateurs peuvent atteindre des performances jusqu'à 10 fois plus rapides sur NVIDIA Blackwell NVL72 par rapport à H200.
NVIDIA Blackwell NVL72 offre 1/10e du coût par jeton pour les modèles MoE. Les performances sont le plus grand levier pour réduire le coût par jeton et maximiser les revenus d'IA. En traitant dix fois plus de jetons en utilisant le même temps et la même énergie, le coût par jeton diminue considérablement, permettant de déployer des Mixture-of-Experts (MoE) dans des produits de tous les jours.
Grâce à une innovation complète en matière de calcul, de mise en réseau et de logiciels, NVIDIA vous permet de faire évoluer efficacement des déploiements d'IA complexes.
NVIDIA fournit une plateforme éprouvée avec une base installée de centaines de millions de GPU CUDA®, 7 millions de développeurs, des contributions à plus de 1 000 projets open-source et des intégrations de framework approfondies avec des frameworks tels que PyTorch, JAX, SGLang, vLLM et bien d'autres
Les performances stimulent la rentabilité
Plus votre système peut générer des jetons rapidement tout en offrant une expérience utilisateur fluide, plus vous pouvez faire de revenus avec la même empreinte énergétique et financière. NVIDIA Blackwell génère 75 millions de dollars de revenus pour chaque 5 millions de dollars de CAPEX dépensés, soit un retour sur investissement 15 fois supérieur.
Un matériel puissant sans orchestration intelligente gaspille du potentiel, tandis qu'un logiciel de qualité sans matériel rapide délivre des performances d'inférence. L'innovation complète de NVIDIA en matière de calcul, de mise en réseau et de logiciels offre les performances les plus élevées pour diverses charges de travail. Découvrez certaines des principales innovations matérielles et logicielles de NVIDIA.