Aperçu

Qu'est-ce que l'inférence IA ?

L'inférence d'IA consiste à déployer des modèles d'IA pré-entraînés pour générer de nouvelles données et permet à l'IA de produire des résultats, favorisant l'innovation dans tous les secteurs d'activité. Les modèles d’IA se développent rapidement en taille, en complexité et en diversité, repoussant les limites de ce qui est possible. Pour une utilisation réussie de l'inférence de l'IA, les organisations doivent adopter une approche complète qui prenne en charge le cycle de vie de l'IA de bout en bout et des outils qui permettent aux équipes d'atteindre leurs objectifs.

Déployer l’IA générative en production

Explorez les principales considérations pour le déploiement et l'évolutivité de l'IA générative en production, y compris le rôle critique de l'inférence de l'IA.

Avantages

Découvrez les avantages de l'IA de NVIDIA pour l'inférence accélérée

Standardiser le déploiement

Standardisez le déploiement de vos modèles sur l’ensemble de vos applications, frameworks d’IA, architectures de modèles et plateformes.

Intégrez et évoluez avec facilité

Intégrez facilement vos outils et plateformes sur les Clouds publics, dans des Data Centers physiques ou à l’Edge.

à coût réduit

Bénéficiez d’un rendement plus élevé et d’une utilisation optimisée à partir d’une infrastructure d’IA dédiée, ce qui contribue à réduire les coûts d’exploitation.

Haute performance

Découvrez des performances de pointe grâce à la plateforme qui a régulièrement établi de nombreux records dans

MLPerf, la référence du secteur en matière d'IA.

Logiciels

Explorez notre logiciel d'inférence IA

NVIDIA AI Enterprise est composé de NVIDIA NIM™, NVIDIA Triton™ Inference Server, NVIDIA® TensorRT™, et d'autres outils pour simplifier la création, le partage et le déploiement d'applications d'IA. Grâce à une prise en charge, une stabilité, une facilité de gestion et une sécurité de niveau entreprise, les entreprises peuvent accélérer le délai de rentabilisation tout en éliminant les temps d'arrêt imprévus.

Le chemin le plus rapide vers l'inférence d'IA générative

La plateforme NVIDIA NIM centralise un ensemble de microservices faciles d'emploi conçus pour un déploiement sécurisé et fiable des modèles d'IA hautes performances pour produire des inférences sur les Clouds, dans les Data Centers et sur les stations de travail.

Serveur d'inférence unifié pour toutes vos charges de travail IA

NVIDIA Triton Inference Server est un logiciel de service d'inférence open source qui aide les entreprises à consolider une infrastructure de service de modèles d'IA sur mesure, à raccourcir le temps nécessaire au déploiement de nouveaux modèles d'IA en production et à augmenter la capacité d'inférence et de prédiction de l'IA.

Un SDK pour optimiser l'inférence et l'exécution

NVIDIA TensorRT inclut un runtime d'inférence et des optimisations de modèle qui offrent une faible latence et un débit élevé pour les applications de production. L'écosystème TensorRT comprend TensorRT, TensorRT-LLM, TensorRT Model Optimizer et TensorRT Cloud.

Matériel

Explorez notre infrastructure d'inférence IA

Bénéficiez de performances d'IA inégalées avec le logiciel d'inférence d'IA NVIDIA optimisé pour l'infrastructure accélérée par NVIDIA. Les technologies NVIDIA H200, L40S et NVIDIA RTX™ offrent une vitesse et une efficacité exceptionnelles pour les charges de travail d'inférence par IA dans les centres de données, les Clouds et les postes de travail.

GPU NVIDIA L4 Tensor Core

Le GPU NVIDIA H200 Tensor Core booste les charges de travail de l'IA générative et de calcul haute performance (HPC) avec des performances et des capacités de mémoire sans précédent. En tant que premier GPU avec HBM3e, la mémoire plus grande et plus rapide du H200 alimente l’accélération de l’IA générative et des grands modèles de langage (LLM) tout en faisant progresser le calcul scientifique pour les charges de travail HPC.

Les produits NVIDIA L40S

La combinaison de la pile complète de logiciels de service d'inférence de NVIDIA avec le GPU L40S fournit une plate-forme puissante pour les modèles entraînés prêts à l'inférence. Avec un support pour la parcimonie structurelle et une large gamme de précision, le L40S offre jusqu'à 1,7 fois les performances d'inférence du GPU NVIDIA A100 Tensor Core.

Technologie NVIDIA RTX

La technologie NVIDIA RTX apporte l'IA à l'informatique visuelle, accélérant la créativité en automatisant les tâches et en optimisant les processus de calcul intensif. Grâce à la puissance des cœurs CUDA®, RTX améliore le rendu en temps réel, l'IA, les graphiques et les performances de calcul.

Cas d'utilisation

Comment l'inférence AI est utilisée

Découvrez comment l'IA de NVIDIA prend en charge les cas d'utilisation du secteur et accélérez le développement de votre IA conversationnelle avec des exemples sélectionnés.

Humains numériques

NVIDIA ACE est une suite de technologies qui permet aux développeurs de donner vie aux humains numériques. Plusieurs microservices ACE sont des NIM NVIDIA, des microservices hautes performances et faciles à déployer, optimisés pour fonctionner sur les PC NVIDIA RTX AI ou sur le réseau NVIDIA Graphics Delivery Network (GDN), un réseau mondial de GPU qui fournit un traitement humain numérique à faible latence dans 100 pays. 

Génération de contenu

Grâce à l'IA générative, vous pouvez générer du contenu hautement pertinent, sur mesure et précis, fondé sur l'expertise de domaine et la propriété intellectuelle propriétaire de votre entreprise.

Génération biomoléculaire

Les modèles biomoléculaires génératifs et l'importante puissance de calcul des GPU de NVIDIA permettent d’explorer efficacement l’espace chimique, de manière à générer rapidement divers ensembles de petites molécules pour étudier des propriétés ou des cibles pharmacologiques spécifiques.

Détection des fraudes

Les institutions financières doivent détecter et prévenir les activités frauduleuses sophistiquées, telles que le vol d’identité, la prise de contrôle de comptes et le blanchiment d’argent. Les applications compatibles avec l’IA peuvent réduire les faux positifs dans la détection de fraudes de transaction, améliorer la précision de la vérification de l’identité pour les exigences de connaissance de votre client (KYC) et rendre les efforts de lutte contre le blanchiment d’argent (AML) plus efficaces, améliorant à la fois l’expérience client et la santé financière de votre entreprise.

Chatbot de l'IA

Les entreprises cherchent à concevoir des chatbots d'IA plus intelligents en utilisant des LLM personnalisés et des techniques de génération augmentée par récupération (RAG). Grâce à la RAG, les chatbots peuvent répondre avec précision à des questions spécifiques à un domaine en récupérant des informations à jour dans la base de connaissances de l'entreprise, puis en fournissant aux utilisateurs des réponses en temps réel et en langage naturel. Ces chatbots peuvent être utilisés pour améliorer l'assistance aux clients, personnaliser les avatars d'IA, gérer les connaissances de l'entreprise, rationaliser l'intégration des employés, fournir une assistance informatique intelligente, créer du contenu, et bien plus encore.

Analyse des vulnérabilités de sécurité

Le correctif des problèmes de sécurité logiciels devient de plus en plus difficile à mesure que le nombre de failles de sécurité signalées dans la base de données de vulnérabilités et expositions communes (CVE) a atteint un niveau record en 2022. L'utilisation de l'IA générative permet d'améliorer la défense contre les vulnérabilités tout en réduisant la charge de travail des équipes de sécurité.

Études de cas

Comment les leaders du secteur stimulent l'innovation avec l'inférence de l'IA

Amdocs

Accélérer les performances de l'IA générative et réduire les coûts

Découvrez comment Amdocs a créé amAIz, une plateforme d'IA générative spécifique à un domaine pour les entreprises de télécommunications, en utilisant les microservices d'inférence NVIDIA DGX™ Cloud et NVIDIA NIM pour améliorer la latence, améliorer la précision et réduire les coûts.

Snapchat

Améliorer les achats avec l’IA

Découvrez comment Snapchat a amélioré l'expérience d'achat de vêtements et la reconnaissance optique de caractères à l'aide de Triton Inference Server pour évoluer, réduire les coûts et accélérer le délai de production.

Amazon

Accélérer la satisfaction client

Découvrez comment Amazon a amélioré la satisfaction de ses clients en accélérant son inférence 5 fois plus vite avec TensorRT.

Ressources

Découvrez nos ressources les plus récentes sur l'IA

Démarrez avec l’inférence sur NVIDIA LaunchPad

Votre projet d’IA est en cours ? Postulez pour acquérir une expérience pratique en matière de test et de prototypage de vos solutions d’IA.

Parcours d’apprentissage en IA générative et LLM

Améliorez vos compétences techniques en IA générative et en modèles de langage à grande échelle grâce à nos parcours d'apprentissage complets.

Démarrez avec l'inférence de l'IA générative sur NVIDIA LaunchPad

Accélérez votre parcours en IA générative avec un accès gratuit, immédiat et à court terme aux microservices d'inférence NVIDIA NIM et aux modèles d'IA.

Déployer l'IA générative en production avec les microservices NVIDIA NIM

Libérez le potentiel de l'IA générative avec les microservices NVIDIA NIM Cette vidéo explique comment les microservices NVIDIA NIM peuvent transformer votre déploiement de l’IA en centre de production disponible.

Top 5 des raisons pour lesquelles Triton simplifie l'inférence

Le serveur d’inférence NVIDIA Triton™ simplifie le déploiement et la mise à niveau de vos modèles d’IA dédiés à la production. Ce logiciel de service d'inférence open source, permet aux équipes de déployer des modèles d'IA formés à partir de n'importe quel framework de stockage local ou de plate-forme Cloud sur n'importe quelle infrastructure basée sur GPU ou CPU.

UneeQ

NVIDIA dévoile les NIM

Vous êtes-vous déjà demandé ce que la technologie NIM de NVIDIA est capable de faire ? Plongez dans le monde impressionnant des humains et des robots numériques pour découvrir ce dont les NIM sont capables.

Prochaines étapes

Vous voulez vous lancer ?

Découvrez tout ce dont vous avez besoin pour commencer à développer avec NVIDIA Riva, incluant la documentation la plus récente ainsi que des didacticiels, des articles techniques et plus encore.

Contactez-nous

Discutez avec un spécialiste des produits NVIDIA pour savoir comment passer du stade de pilote à la phase de production en bénéficiant de la garantie de sécurité, de stabilité d'API et du support technique de NVIDIA AI Enterprise.

Obtenez les dernières nouvelles sur l'IA NVIDIA

Inscrivez-vous pour recevoir les dernières informations et annonces de NVIDIA.