NVIDIA NIM™ fornisce microservizi di inferenza pre-costruiti e ottimizzati per la distribuzione rapida dei modelli IA più recenti su qualsiasi infrastruttura accelerata da NVIDIA: cloud, data center, workstation ed edge.
Inferenza di IA generativa basata su NVIDIA NIM: prestazioni e TCO
Scopri come i microservizi NIM offrono prestazioni migliori rispetto alle alternative più diffuse. Possono elaborare fino a 3 volte più token al secondo in esecuzione sulla stessa infrastruttura accelerata da NVIDIA.
Ottieni l'accesso alla prototipazione illimitata con le API in hosting per NIM accelerata da DGX Cloud oppure scarica e gestisci in self-hosting microservizi NIM per la ricerca e lo sviluppo nell'ambito del programma per sviluppatori NVIDIA.
NVIDIA NIM combina la facilità d'uso e la semplicità operativa delle API gestite con la flessibilità e la sicurezza dei modelli di self-hosting sull'infrastruttura preferita. I microservizi NIM includono tutto ciò di cui i team IA hanno bisogno: i più recenti modelli di base IA, i motori di inferenza ottimizzati, le API standard di settore e le dipendenze di runtime, il tutto pre-confezionato in container software di livello aziendale pronti per la distribuzione e la scalabilità ovunque.
Vantaggi
L'IA generativa per le imprese che fa di più con meno
Microservizi facili e di livello aziendale progettati per l'IA ad alte prestazioni, per funzionare facilmente e scalare in modo conveniente. Scopri il più rapido time-to-value per agenti IA e altre applicazioni di IA generativa aziendale basate sui più recenti modelli IA per il ragionamento, la simulazione, la voce e altro ancora.
Facilità di utilizzo
Accelera l'innovazione e il time-to-market con microservizi pre-costruiti e ottimizzati per i più recenti modelli IA. Grazie alle API standard, i modelli possono essere distribuiti in cinque minuti e facilmente integrati nelle applicazioni.
Distribuisci microservizi di livello aziendale continuamente gestiti da NVIDIA attraverso processi di convalida rigorosi e rami di funzionalità dedicate, il tutto sostenuto dal supporto aziendale di NVIDIA, che offre anche accesso diretto agli esperti di NVIDIA AI.
Prestazioni e scalabilità
Migliora il TCO con l'inferenza IA a bassa latenza e ad alto throughput scalabile nel cloud e ottieni la migliore precisione con il supporto per modelli ottimizzati pronti all'uso.
Distribuisci ovunque con microservizi cloud-native e pre-costruiti pronti per l'esecuzione su qualsiasi infrastruttura accelerata da NVIDIA, cloud, data center e workstation, e scala facilmente su ambienti Kubernetes e fornitori di servizi cloud.
Demo
Crea agenti IA con NIM
Scopri come configurare due agenti IA, uno per la generazione di contenuti e l'altro per la progettazione grafica digitale, e scopri quanto sia facile iniziare a utilizzare i microservizi NIM.
Ottieni i più recenti modelli IA per il ragionamento, il linguaggio, il recupero, la voce, la visione e altro ancora, pronti per la distribuzione in cinque minuti su qualsiasi infrastruttura accelerata da NVIDIA.
Crea applicazioni IA per agenti di impatto con flussi di lavoro di riferimento completi che includono le librerie di accelerazione, gli SDK e i microservizi NIM di NVIDIA.
Integra i microservizi NIM in applicazioni IA per agenti con la libreria NVIDIA AgentIQ, un toolkit per sviluppatori per la creazione di agenti IA e la loro integrazione in flussi di lavoro personalizzati.
NVIDIA NIM offre un throughput e una latenza ottimizzati pronti all'uso per massimizzare la generazione di token, supportare più utenti simultaneamente nelle ore con maggiore traffico e migliorare la reattività. I microservizi NIM sono continuamente aggiornati con i più recenti motori di inferenza ottimizzati, che aumentano le prestazioni sulla stessa infrastruttura nel tempo.
Configurazione: Llama 3.1 8B instruct, 1 H100 SXM; richieste simultanee: 200. NIM ON: FP8, throughput 1201 token/s, ITL 32ms. NIM OFF: FP8, throughput 613 token/sec, ITL 37 ms.
Modelli
Crea con i principali modelli aperti
Ottieni prestazioni di inferenza ottimizzate per i modelli IA più recenti per alimentare l'IA per agenti multimodali con ragionamento, linguaggio, recupero, voce, immagini e altro ancora. NIM è dotato di motori di inferenza accelerati da NVIDIA e della community, tra cui NVIDIA® TensorRT™, TensorRT-LLM e molto altro ancora, pre-costruiti e ottimizzati per l'inferenza a bassa latenza e ad alto throughput sull'infrastruttura accelerata da NVIDIA.
Il pulsante facile per lo sviluppo e la distribuzione dell'IA
Progettati per essere eseguiti ovunque, i microservizi di inferenza NIM espongono le API standard di settore per una facile integrazione con i sistemi e le applicazioni aziendali e scalano facilmente su Kubernetes per fornire un'inferenza ad alto throughput e a bassa latenza su scala cloud.
Distribuzione NIM
Distribuisci NIM per il tuo modello con un unico comando. Inoltre, è possibile eseguire facilmente NIM con modelli ottimizzati.
Esecuzione dell'inferenza
Inizia a usare la tecnologia NIM con il motore di esecuzione ideale basato sulla tua infrastruttura accelerata da NVIDIA.
Creazione
Gli sviluppatori possono integrare gli endpoint NIM self-hosted con poche righe di codice.
Parla con uno specialista NVIDIA AI per sapere come portare in produzione i progetti pilota di IA generativa con la sicurezza, la stabilità delle API e il supporto forniti con NVIDIA AI Enterprise.
Scopri i casi d'uso dell'IA generativa.
Esamina i requisiti tecnici.
Allinea le soluzioni NVIDIA AI ai tuoi obiettivi e requisiti.
Scopri di più su come ottimizzare e distribuire modelli linguistici di grandi dimensioni utilizzando i microservizi NIM per le applicazioni nel mondo reale.
Rivedi il processo di creazione di un'applicazione basata su NVIDIA Omniverse™ Kit e potenziata dall'IA. Imparerai a utilizzare le estensioni Omniverse, i microservizi NIM e il codice Python per aggiungere un'estensione in grado di generare sfondi dall'input di testo.
Ottieni l'accesso illimitato agli endpoint delle API NIM per la prototipazione, accelerata da DGX Cloud. Quando sei pronto per la produzione, scarica e gestisci in self-hosting NIM sulla tua infrastruttura preferita, workstation, data center, edge o cloud, oppure accedi agli endpoint NIM in hosting dai partner NVIDIA.
Parla con uno specialista di prodotto NVIDIA per passare dal progetto pilota alla produzione grazie alla sicurezza, alla stabilità delle API e al supporto forniti con NVIDIA AI Enterprise.