Solutions d’IA de NVIDIA

Microservices NVIDIA NIM

Conçus pour déployer rapidement et de manière fiable une inférence de l'IA générative accélérée partout où vous en avez besoin.

Aperçu

Qu'est-ce que NVIDIA NIM ?

NVIDIA NIM™ fournit des microservices d'inférence préconstruits et optimisés permettant de déployer rapidement les derniers modèles d'IA sur n'importe quelle infrastructure accélérée par NVIDIA : Cloud, Data Center, station de travail et Edge.

Inférence de l'IA générative avec NVIDIA NIM : performances et coût total de possession

Découvrez comment les microservices NIM fonctionnent mieux que les alternatives populaires. Ils peuvent traiter jusqu'à 3 fois plus de jetons par seconde lorsqu'ils sont exécutés sur la même infrastructure accélérée par NVIDIA.

Accès aux NIM gratuit pour le développement

Accédez à un prototypage illimité avec des API hébergées pour les microservices NIM accélérés par DGX Cloud, ou téléchargez et hébergez vous-même des microservices NIM de recherche et de développement dans le cadre du programme NVIDIA Developer.

Accélérez le déploiement de l'IA avec NVIDIA NIM

NVIDIA NIM combine la facilité d'utilisation et la simplicité opérationnelle des API gérées à la flexibilité et à la sécurité des modèles auto-hébergés sur votre infrastructure préférée. Les microservices NIM sont fournis avec tout ce dont les équipes travaillant avec l'IA ont besoin (les derniers modèles de fondation, des moteurs d'inférence optimisés, des API aux normes du secteur et les dépendances runtime), le tout packagé dans des conteneurs logiciels d'entreprise prêts à être déployés et étendus n'importe où.

Diagramme de la pile NVIDIA NIM

Avantages

L'IA générative d'entreprise qui fait plus avec moins

Microservices simples de qualité entreprise, conçus pour une IA hautes performances, fonctionner de manière transparente et évoluer à moindre coût. Bénéficiez des délais de mise sur le marché les plus courts d'agents d'IA et d'autres applications d'IA générative d'entreprise qui s'appuient sur les derniers modèles d'IA dans les domaines du raisonnement, de la simulation, de la parole, et bien plus encore.

Icône montrant la facilité d'utilisation

Simplicité d’utilisation

Accélérez l'innovation et les délais de mise sur le marché grâce à des microservices préconstruits, optimisés pour les derniers modèles d'IA. Grâce à des API standard, les modèles peuvent être déployés en cinq minutes et intégrés facilement aux applications.

Icône montrant la sécurité et la facilité de gestion

Niveau entreprise

Déployez des microservices de niveau entreprise gérés en permanence par NVIDIA grâce à des processus de validation rigoureux et à des fonctionnalités spécialisées dédiées, le tout soutenu par l'assistance de NVIDIA, qui offre également un accès direct aux experts de NVIDIA AI.

Icône montrant les performances et l'échelle

Performances et évolutivité

Améliorez le coût total de possession avec une inférence de l'IA à faible latence, haut débit et évolutive dans le Cloud, et profitez d'une précision hors pairs grâce à la prise en charge intégrée des modèles affinés.

Icône montrant la portabilité

Portabilité

Profitez d'un déploiement n'importe où grâce à des microservices natifs du Cloud préconstruits pouvant s'exécuter sur n'importe quelle infrastructure accélérée par NVIDIA (Cloud, Data Center et station de travail), et passez en toute simplicité sur Kubernetes et des environnements de fournisseurs de services Cloud. 

Démo

Développez des agents d'IA avec NIM

Découvrez comment configurer deux agents d'IA, l'un pour la génération de contenu et l'autre pour la conception graphique numérique, et découvrez à quel point il est facile de les mettre en service avec les microservices NIM.


Technologie

Composants-clés de l'IA agentique

Icône de NIM de raisonnement

Obtenez les derniers modèles de raisonnement de l'IA

Obtenez les derniers modèles d'IA de raisonnement, de langage, de récupération, de parole, de vision, et bien plus encore, prêts à être déployés en cinq minutes sur n'importe quelle infrastructure accélérée par NVIDIA.

Icône de modèles NVIDIA

Lancez le développement avec les modèles NVIDIA

Développez des applications d'IA agentique percutantes grâce à des workflows de référence complets comprenant des bibliothèques d'accélération, des SDK et des microservices NIM NVIDIA.

Icône du kit d'outils AgentIQ

Simplifiez le développement avec le kit d'outils NVIDIA AgentIQ

Intégrez des microservices NIM à des applications d'IA agentique grâce à la bibliothèque NVIDIA AgentIQ, un kit d'outils de développement permettant de créer des agents d'IA et de les intégrer dans des workflows personnalisés.

Benchmarks

Boostez le rendement avec NIM

NVIDIA NIM fournit une latence et un débit optimisés dès la première utilisation, pour maximiser la génération de jetons, prendre en charge plusieurs utilisateurs simultanés aux heures de pointe et améliorer la réactivité. Les microservices NIM sont constamment mis à jour avec les derniers moteurs d'inférence optimisés, ce qui permet d'améliorer les performances sur la même infrastructure au fil du temps.

0.0x0.5x1.0x1.5x2x2X1XNIM OnNIM Off

Configuration : Llama 3.1 8B instruct, 1x H100 SXM ; demandes simultanées : 200. NIM ON : FP8, débit de 1 201 jetons/s, ITL 32 ms. NIM OFF : FP8, débit de 613 jetons/sec, ITL 37 ms.

Modèles

Créez à l'aide des principaux modèles ouverts

Obtenez des performances d'inférence optimisées pour les derniers modèles d'IA afin de mettre en œuvre une IA agentique multimodale avec le raisonnement, le langage, la récupération, la parole, l'image, et bien plus encore. NIM est livré avec les moteurs d'inférence accélérés développés par NVIDIA et la communauté, notamment NVIDIA® TensorRT™, TensorRT-LLM, et bien plus encore, tous préconstruits et optimisés pour une inférence à faible latence et à haut débit sur une infrastructure accélérée par NVIDIA.


Fonctionnalités

Le bouton Facile du développement et du déploiement de l'IA

Les microservices d'inférence NIM sont conçus pour fonctionner n'importe où et utilisent des API aux normes du secteur pour être facilement intégrés aux systèmes et aux applications d'entreprise. Ils passent en outre sans encombre sur Kubernetes pour fournir une inférence haut débit et faible latence dans le Cloud.

Déployez NIM

Déployez NIM pour votre modèle avec une seule commande. Vous pouvez également exécuter NIM très facilement avec des modèles affinés.

Exécutez l'inférence

Lancez NIM avec le moteur d'exécution optimal en fonction de votre infrastructure accélérée par NVIDIA.

Créez

Intégrez des points de terminaison NIM auto-hébergés en seulement quelques lignes de code.

Deploy
Run
Build
docker run nvcr.io/nim/publisher_name/model_name
curl -X 'POST' \ 'http://0.0.0.0:8000/v1/completions' \ -H 'accept: application/json' \ -H 'Content-Type: application/json' \ -d '{ "model" : "model_name", "prompt" : "Once upon a time", "max_tokens" : 64 }'
import openai client = openai.OpenAI( base_url = "YOUR_LOCAL_ENDPOINT_URL", api_key="YOUR_LOCAL_API_KEY" ) chat_completion = client.chat.completions.create( model="model_name", messages=[{"role" : "user" , "content" : "Write me a love song" }], temperature=0.7 )

Cas d'utilisation

Utilisation de NIM

Découvrez des cas d'utilisation de NVIDIA NIM spécifiques à chaque secteur et accélérez le développement de l’IA dans votre entreprise grâce à des exemples triés sur le volet.

Assistants IA virtuels

Améliorez l'expérience des clients et les processus métiers grâce à l'IA générative.

Humain virtuel dans une session de chat virtuel.

Options de démarrage

Comment démarrer avec NVIDIA NIM

Commencez le prototypage gratuitement

Lancez-vous avec des points de terminaison d'API faciles à utiliser pour NIM, alimentés par DGX Cloud.

  • Accédez à une infrastructure d'IA entièrement accélérée.
  • Assurez-vous que vos données ne sont pas utilisées pour l'entraînement de modèles.
  • Accès au développement et aux tests dans le cadre du programme NVIDIA Developer.

Téléchargez et déployez

Exécutez NVIDIA NIM pour étendre les modèles d'IA optimisés vers le Cloud ou le Data Center de votre choix.

  • Assurez-vous que les données ne quittent jamais votre enclave sécurisée.
  • Transitionnez facilement des points de terminaison Cloud aux API auto-hébergées sans modification du code.
  • Commencez avec un accès gratuit au développement et aux tests, et passez à une licence NVIDIA AI Enterprise pour la production.

Contactez-nous

Contactez un spécialiste de l'IA chez NVIDIA pour discuter de comment faire passer vos projets en IA générative de la phase de pilote à la phase de production tout en bénéficiant de la sécurité, de la stabilité d'API et de l'assistance de NVIDIA AI Enterprise.

  • Découvrez vos cas d'utilisation de l'IA générative.
  • Discutez de vos besoins techniques.
  • Alignez les solutions d'IA de NVIDIA sur vos objectifs et vos besoins.

Ressources

Nouvelles ressources NVIDIA NIM

Prochaines étapes

Vous voulez vous lancer ?

Obtenez un accès illimité aux points de terminaison d'API NIM pour le prototypage, accélérés par DGX Cloud. Lorsque vous êtes prêt à la production, vous pouvez télécharger et héberger vous-même NIM sur votre infrastructure préférée (station de travail, Datacenter, Edge ou Cloud), ou accéder à des points de terminaison NIM hébergés par les partenaires de NVIDIA.

Contactez-nous

Contactez un spécialiste produit chez NVIDIA pour discuter de comment faire passer vos projets de la phase de pilote à la phase de production tout en bénéficiant de la sécurité, de la stabilité d'API et de l'assistance de NVIDIA AI Enterprise.

Suivez l'actualité de NVIDIA NIM

Recevez toute l’actualité directement dans votre boîte mail : nouvelles technologiques, innovations majeures, et bien plus encore.

Vous allez être redirigé vers une page NVIDIA hébergée en dehors de la France

Continuer
Select Location
Middle East