NVIDIA AI

Microservizi NIM di NVIDIA

Progettati per la distribuzione rapida e affidabile dell'inferenza IA generativa accelerata ovunque.

Panoramica

Che cos'è NVIDIA NIM?

NVIDIA NIM™ fornisce microservizi di inferenza pre-costruiti e ottimizzati per la distribuzione rapida dei modelli IA più recenti su qualsiasi infrastruttura accelerata da NVIDIA: cloud, data center, workstation ed edge.

Inferenza di IA generativa basata su NVIDIA NIM: prestazioni e TCO

Scopri come i microservizi NIM offrono prestazioni migliori rispetto alle alternative più diffuse. Possono elaborare fino a 3 volte più token al secondo in esecuzione sulla stessa infrastruttura accelerata da NVIDIA.

Accesso a NIM gratuito per gli sviluppatori

Ottieni l'accesso alla prototipazione illimitata con le API in hosting per NIM accelerata da DGX Cloud oppure scarica e gestisci in self-hosting microservizi NIM per la ricerca e lo sviluppo nell'ambito del programma per sviluppatori NVIDIA.

Accelera la distribuzione dell'IA con NVIDIA NIM

NVIDIA NIM combina la facilità d'uso e la semplicità operativa delle API gestite con la flessibilità e la sicurezza dei modelli di self-hosting sull'infrastruttura preferita. I microservizi NIM includono tutto ciò di cui i team IA hanno bisogno: i più recenti modelli di base IA, i motori di inferenza ottimizzati, le API standard di settore e le dipendenze di runtime, il tutto pre-confezionato in container software di livello aziendale pronti per la distribuzione e la scalabilità ovunque.

Diagramma dello stack di NVIDIA NIM

Vantaggi

L'IA generativa per le imprese che fa di più con meno

Microservizi facili e di livello aziendale progettati per l'IA ad alte prestazioni, per funzionare facilmente e scalare in modo conveniente. Scopri il più rapido time-to-value per agenti IA e altre applicazioni di IA generativa aziendale basate sui più recenti modelli IA per il ragionamento, la simulazione, la voce e altro ancora. 

Icona che mostra la facilità d'uso

Facilità di utilizzo

Accelera l'innovazione e il time-to-market con microservizi pre-costruiti e ottimizzati per i più recenti modelli IA. Grazie alle API standard, i modelli possono essere distribuiti in cinque minuti e facilmente integrati nelle applicazioni.

Icona che mostra la sicurezza e la gestibilità

Livello aziendale

Distribuisci microservizi di livello aziendale continuamente gestiti da NVIDIA attraverso processi di convalida rigorosi e rami di funzionalità dedicate, il tutto sostenuto dal supporto aziendale di NVIDIA, che offre anche accesso diretto agli esperti di NVIDIA AI.

Icona che mostra le prestazioni e la scalabilità

Prestazioni e scalabilità

Migliora il TCO con l'inferenza IA a bassa latenza e ad alto throughput scalabile nel cloud e ottieni la migliore precisione con il supporto per modelli ottimizzati pronti all'uso.

Icona che mostra la portabilità

Portabilità

Distribuisci ovunque con microservizi cloud-native e pre-costruiti pronti per l'esecuzione su qualsiasi infrastruttura accelerata da NVIDIA, cloud, data center e workstation, e scala facilmente su ambienti Kubernetes e fornitori di servizi cloud. 

Demo

Crea agenti IA con NIM

Scopri come configurare due agenti IA, uno per la generazione di contenuti e l'altro per la progettazione grafica digitale, e scopri quanto sia facile iniziare a utilizzare i microservizi NIM.


Tecnologia

Elementi costitutivi dell'IA per agenti

Icona NIM di ragionamento

Ottieni i più recenti modelli di ragionamento IA

Ottieni i più recenti modelli IA per il ragionamento, il linguaggio, il recupero, la voce, la visione e altro ancora, pronti per la distribuzione in cinque minuti su qualsiasi infrastruttura accelerata da NVIDIA.

Icona NVIDIA Blueprints

Avvia lo sviluppo con NVIDIA Blueprints

Crea applicazioni IA per agenti di impatto con flussi di lavoro di riferimento completi che includono le librerie di accelerazione, gli SDK e i microservizi NIM di NVIDIA.

Icona AgentIQ Toolkit

Semplifica lo sviluppo con NVIDIA AgentIQ Toolkit

Integra i microservizi NIM in applicazioni IA per agenti con la libreria NVIDIA AgentIQ, un toolkit per sviluppatori per la creazione di agenti IA e la loro integrazione in flussi di lavoro personalizzati.

Benchmark

Migliora il throughput con NIM

NVIDIA NIM offre un throughput e una latenza ottimizzati pronti all'uso per massimizzare la generazione di token, supportare più utenti simultaneamente nelle ore con maggiore traffico e migliorare la reattività. I microservizi NIM sono continuamente aggiornati con i più recenti motori di inferenza ottimizzati, che aumentano le prestazioni sulla stessa infrastruttura nel tempo.

0.0x0.5x1.0x1.5x2x2X1XNIM OnNIM Off

Configurazione: Llama 3.1 8B instruct, 1 H100 SXM; richieste simultanee: 200. NIM ON: FP8, throughput 1201 token/s, ITL 32ms. NIM OFF: FP8, throughput 613 token/sec, ITL 37 ms.

Modelli

Crea con i principali modelli aperti

Ottieni prestazioni di inferenza ottimizzate per i modelli IA più recenti per alimentare l'IA per agenti multimodali con ragionamento, linguaggio, recupero, voce, immagini e altro ancora. NIM è dotato di motori di inferenza accelerati da NVIDIA e della community, tra cui NVIDIA® TensorRT™, TensorRT-LLM e molto altro ancora, pre-costruiti e ottimizzati per l'inferenza a bassa latenza e ad alto throughput sull'infrastruttura accelerata da NVIDIA. 


Caratteristiche

Il pulsante facile per lo sviluppo e la distribuzione dell'IA

Progettati per essere eseguiti ovunque, i microservizi di inferenza NIM espongono le API standard di settore per una facile integrazione con i sistemi e le applicazioni aziendali e scalano facilmente su Kubernetes per fornire un'inferenza ad alto throughput e a bassa latenza su scala cloud.

Distribuzione NIM

Distribuisci NIM per il tuo modello con un unico comando. Inoltre, è possibile eseguire facilmente NIM con modelli ottimizzati.

Esecuzione dell'inferenza

Inizia a usare la tecnologia NIM con il motore di esecuzione ideale basato sulla tua infrastruttura accelerata da NVIDIA.

Creazione

Gli sviluppatori possono integrare gli endpoint NIM self-hosted con poche righe di codice.

Deploy
Run
Build
docker run nvcr.io/nim/publisher_name/model_name
curl -X 'POST' \ 'http://0.0.0.0:8000/v1/completions' \ -H 'accept: application/json' \ -H 'Content-Type: application/json' \ -d '{ "model" : "model_name", "prompt" : "Once upon a time", "max_tokens" : 64 }'
import openai client = openai.OpenAI( base_url = "YOUR_LOCAL_ENDPOINT_URL", api_key="YOUR_LOCAL_API_KEY" ) chat_completion = client.chat.completions.create( model="model_name", messages=[{"role" : "user" , "content" : "Write me a love song" }], temperature=0.7 )

Casi d'uso

Come viene utilizzato NIM

Scopri come NVIDIA NIM supporta i casi d'uso del settore e l'avvio dello sviluppo dell'IA con esempi selezionati.

Assistenti virtuali IA

Migliora le esperienze dei clienti e rendi più efficienti i processi aziendali grazie all'IA generativa.

Un umano virtuale in una sessione di chat virtuale.

Opzioni per iniziare

Come iniziare con NVIDIA NIM

Inizia a creare prototipi gratuitamente

Inizia con gli endpoint API facili da usare per NIM, basati su DGX Cloud.

  • Accedi all'infrastruttura IA completamente accelerata.
  • Assicurati che i tuoi dati non vengano utilizzati per l'addestramento dei modelli.
  • Accesso allo sviluppo e ai test nell'ambito del Programma per sviluppatori NVIDIA.

Scarica e distribuisci

Esegui NVIDIA NIM per scalare modelli di intelligenza artificiale ottimizzati nel cloud o nel data center di tua scelta.

  • Fai in modo che i dati non lascino mai la tua area sicura.
  • Transizione fluida dagli endpoint cloud alle API self-hosted, senza modifiche al codice.
  • Inizia con l'accesso gratuito per lo sviluppo e i test e passa a una licenza NVIDIA AI Enterprise per la produzione.

Contattaci

Parla con uno specialista NVIDIA AI per sapere come portare in produzione i progetti pilota di IA generativa con la sicurezza, la stabilità delle API e il supporto forniti con NVIDIA AI Enterprise.

  • Scopri i casi d'uso dell'IA generativa.
  • Esamina i requisiti tecnici.
  • Allinea le soluzioni NVIDIA AI ai tuoi obiettivi e requisiti.

Risorse

Le più recenti risorse NVIDIA NIM

Prossimi passi

Vuoi iniziare?

Ottieni l'accesso illimitato agli endpoint delle API NIM per la prototipazione, accelerata da DGX Cloud. Quando sei pronto per la produzione, scarica e gestisci in self-hosting NIM sulla tua infrastruttura preferita, workstation, data center, edge o cloud, oppure accedi agli endpoint NIM in hosting dai partner NVIDIA.

Contattaci

Parla con uno specialista di prodotto NVIDIA per passare dal progetto pilota alla produzione grazie alla sicurezza, alla stabilità delle API e al supporto forniti con NVIDIA AI Enterprise.

Ricevi gli aggiornamenti sulle novità di NVIDIA NIM

Ricevi le ultime notizie e scopri le più recenti tecnologie e innovazioni e molto altro ancora direttamente nella tua casella di posta.

Select Location
Middle East