NVIDIA NIM™ fournit des microservices d'inférence préconstruits et optimisés permettant de déployer rapidement les derniers modèles d'IA sur n'importe quelle infrastructure accélérée par NVIDIA : Cloud, Data Center, station de travail et Edge.
Inférence de l'IA générative avec NVIDIA NIM : performances et coût total de possession
Découvrez comment les microservices NIM fonctionnent mieux que les alternatives populaires. Ils peuvent traiter jusqu'à 3 fois plus de jetons par seconde lorsqu'ils sont exécutés sur la même infrastructure accélérée par NVIDIA.
Accédez à un prototypage illimité avec des API hébergées pour les microservices NIM accélérés par DGX Cloud, ou téléchargez et hébergez vous-même des microservices NIM de recherche et de développement dans le cadre du programme NVIDIA Developer.
NVIDIA NIM combine la facilité d'utilisation et la simplicité opérationnelle des API gérées à la flexibilité et à la sécurité des modèles auto-hébergés sur votre infrastructure préférée. Les microservices NIM sont fournis avec tout ce dont les équipes travaillant avec l'IA ont besoin (les derniers modèles de fondation, des moteurs d'inférence optimisés, des API aux normes du secteur et les dépendances runtime), le tout packagé dans des conteneurs logiciels d'entreprise prêts à être déployés et étendus n'importe où.
Avantages
L'IA générative d'entreprise qui fait plus avec moins
Microservices simples de qualité entreprise, conçus pour une IA hautes performances, fonctionner de manière transparente et évoluer à moindre coût. Bénéficiez des délais de mise sur le marché les plus courts d'agents d'IA et d'autres applications d'IA générative d'entreprise qui s'appuient sur les derniers modèles d'IA dans les domaines du raisonnement, de la simulation, de la parole, et bien plus encore.
Simplicité d’utilisation
Accélérez l'innovation et les délais de mise sur le marché grâce à des microservices préconstruits, optimisés pour les derniers modèles d'IA. Grâce à des API standard, les modèles peuvent être déployés en cinq minutes et intégrés facilement aux applications.
Déployez des microservices de niveau entreprise gérés en permanence par NVIDIA grâce à des processus de validation rigoureux et à des fonctionnalités spécialisées dédiées, le tout soutenu par l'assistance de NVIDIA, qui offre également un accès direct aux experts de NVIDIA AI.
Performances et évolutivité
Améliorez le coût total de possession avec une inférence de l'IA à faible latence, haut débit et évolutive dans le Cloud, et profitez d'une précision hors pairs grâce à la prise en charge intégrée des modèles affinés.
Profitez d'un déploiement n'importe où grâce à des microservices natifs du Cloud préconstruits pouvant s'exécuter sur n'importe quelle infrastructure accélérée par NVIDIA (Cloud, Data Center et station de travail), et passez en toute simplicité sur Kubernetes et des environnements de fournisseurs de services Cloud.
Démo
Développez des agents d'IA avec NIM
Découvrez comment configurer deux agents d'IA, l'un pour la génération de contenu et l'autre pour la conception graphique numérique, et découvrez à quel point il est facile de les mettre en service avec les microservices NIM.
Obtenez les derniers modèles de raisonnement de l'IA
Obtenez les derniers modèles d'IA de raisonnement, de langage, de récupération, de parole, de vision, et bien plus encore, prêts à être déployés en cinq minutes sur n'importe quelle infrastructure accélérée par NVIDIA.
Développez des applications d'IA agentique percutantes grâce à des workflows de référence complets comprenant des bibliothèques d'accélération, des SDK et des microservices NIM NVIDIA.
Simplifiez le développement avec le kit d'outils NVIDIA AgentIQ
Intégrez des microservices NIM à des applications d'IA agentique grâce à la bibliothèque NVIDIA AgentIQ, un kit d'outils de développement permettant de créer des agents d'IA et de les intégrer dans des workflows personnalisés.
NVIDIA NIM fournit une latence et un débit optimisés dès la première utilisation, pour maximiser la génération de jetons, prendre en charge plusieurs utilisateurs simultanés aux heures de pointe et améliorer la réactivité. Les microservices NIM sont constamment mis à jour avec les derniers moteurs d'inférence optimisés, ce qui permet d'améliorer les performances sur la même infrastructure au fil du temps.
Configuration : Llama 3.1 8B instruct, 1x H100 SXM ; demandes simultanées : 200. NIM ON : FP8, débit de 1 201 jetons/s, ITL 32 ms. NIM OFF : FP8, débit de 613 jetons/sec, ITL 37 ms.
Modèles
Créez à l'aide des principaux modèles ouverts
Obtenez des performances d'inférence optimisées pour les derniers modèles d'IA afin de mettre en œuvre une IA agentique multimodale avec le raisonnement, le langage, la récupération, la parole, l'image, et bien plus encore. NIM est livré avec les moteurs d'inférence accélérés développés par NVIDIA et la communauté, notamment NVIDIA® TensorRT™, TensorRT-LLM, et bien plus encore, tous préconstruits et optimisés pour une inférence à faible latence et à haut débit sur une infrastructure accélérée par NVIDIA.
Le bouton Facile du développement et du déploiement de l'IA
Les microservices d'inférence NIM sont conçus pour fonctionner n'importe où et utilisent des API aux normes du secteur pour être facilement intégrés aux systèmes et aux applications d'entreprise. Ils passent en outre sans encombre sur Kubernetes pour fournir une inférence haut débit et faible latence dans le Cloud.
Déployez NIM
Déployez NIM pour votre modèle avec une seule commande. Vous pouvez également exécuter NIM très facilement avec des modèles affinés.
Exécutez l'inférence
Lancez NIM avec le moteur d'exécution optimal en fonction de votre infrastructure accélérée par NVIDIA.
Créez
Intégrez des points de terminaison NIM auto-hébergés en seulement quelques lignes de code.
import openaiclient = openai.OpenAI( base_url = "YOUR_LOCAL_ENDPOINT_URL", api_key="YOUR_LOCAL_API_KEY")chat_completion = client.chat.completions.create( model="model_name", messages=[{"role" : "user" , "content" : "Write me a love song" }], temperature=0.7)
Cas d'utilisation
Utilisation de NIM
Découvrez des cas d'utilisation de NVIDIA NIM spécifiques à chaque secteur et accélérez le développement de l’IA dans votre entreprise grâce à des exemples triés sur le volet.
Assistants IA virtuels
Traitement des documents
Achats hyperpersonnalisés
Configurateurs de produits 3D
Assistants IA virtuels
Améliorez l'expérience des clients et les processus métiers grâce à l'IA générative.
Utilisez OpenUSD et l'IA générative pour développer et déployer des outils et des expériences de configurateurs de produits 3D sur presque tous les appareils.
Contactez un spécialiste de l'IA chez NVIDIA pour discuter de comment faire passer vos projets en IA générative de la phase de pilote à la phase de production tout en bénéficiant de la sécurité, de la stabilité d'API et de l'assistance de NVIDIA AI Enterprise.
Découvrez vos cas d'utilisation de l'IA générative.
Discutez de vos besoins techniques.
Alignez les solutions d'IA de NVIDIA sur vos objectifs et vos besoins.
Développer un générateur d'arrière-plan IA avec NIM
Passez en revue le processus de création d'une application d'IA à partir du kit NVIDIA Omniverse™. Vous apprendrez à utiliser les extensions Omniverse, les microservices NIM et le code Python pour ajouter une extension capable de générer des arrière-plans à partir de texte.
Obtenez un accès illimité aux points de terminaison d'API NIM pour le prototypage, accélérés par DGX Cloud. Lorsque vous êtes prêt à la production, vous pouvez télécharger et héberger vous-même NIM sur votre infrastructure préférée (station de travail, Datacenter, Edge ou Cloud), ou accéder à des points de terminaison NIM hébergés par les partenaires de NVIDIA.
Contactez un spécialiste produit chez NVIDIA pour discuter de comment faire passer vos projets de la phase de pilote à la phase de production tout en bénéficiant de la sécurité, de la stabilité d'API et de l'assistance de NVIDIA AI Enterprise.