Il catalogo NGC accelera i flussi di lavoro end-to-end con container di livello enterprise, modelli IA pre-addestrati e SDK specifici per settore che possono essere distribuiti in locale, nel cloud o sull'Edge.
NVIDIA NGC™ offre una raccolta di servizi cloud completamente gestiti tra cui NeMo LLM, BioNemo e Riva Studio per soluzioni NLU e IA vocale. I professionisti di IA possono utilizzare NVIDIA Base Command per il training dei modelli, NVIDIA Fleet Command per la gestione dei modelli e il registro privato NGC per condividere in modo sicuro il software IA proprietario. Inoltre, NGC ospita un catalogo di software IA ottimizzati da GPU, SDK e Jupyter Notebook che aiutano ad accelerare i flussi di lavoro IA e offrono supporto tramite NVIDIA AI Enterprise.
Il catalogo NGC accelera i flussi di lavoro end-to-end con container di livello enterprise, modelli IA pre-addestrati e SDK specifici per settore che possono essere distribuiti in locale, nel cloud o sull'Edge.
Gli enti pubblici, le aziende Fortune 500, i siti di supercomputing, l'alta formazione e anche le startup IA stanno utilizzando il software del catalogo NGC per creare applicazioni di nuova generazione.
Dall'HPC all'IA conversazionale, dalla diagnostica per immagini ai sistemi recommender e non solo, NGC Collections offre container pronti all'uso, modelli pre-addestrati, SDK e grafici Helm per diversi casi d'uso e settori, in un unico luogo, per accelerare il processo di sviluppo e distribuzione delle applicazioni.
La modellazione del linguaggio è un'attività di elaborazione del linguaggio naturale (NLP) che calcola la probabilità con cui una determinata sequenza di parole si verifichi in una frase.
I sistemi recommender sono un meccanismo di filtraggio delle informazioni che cerca di prevedere la "valutazione" o la "preferenza" che un utente darebbe a un articolo.
La segmentazione delle immagini è l'ambito dell'elaborazione che si occupa della separazione di un'immagine in più sottogruppi o regioni che rappresentano oggetti distintivi o sottoparti.
La traduzione automatica consiste nel tradurre un testo da una lingua all'altra.
Il rilevamento di oggetti riguarda non solo il rilevamento della presenza e della posizione di oggetti in immagini e video, ma anche la loro categorizzazione come oggetti di uso quotidiano.
I sistemi di riconoscimento vocale automatico (ASR) includono l'assegnazione di comandi vocali a un assistente virtuale interattivo, la conversione dell'audio in sottotitoli nei video online e non solo.
La sintesi vocale consiste nel riprodurre artificialmente la voce umana partendo da trascrizioni non elaborate. I modelli si sintesi da testo a voce vengono utilizzati quando un dispositivo mobile converte testo in voce in una pagina web.
Il calcolo ad alte prestazioni (HPC) è uno degli strumenti più essenziali per alimentare i progressi delle scienze computazionali; l'universo del computing scientifico si è ormai esteso in tutte le direzioni.
Dai container di deep learning, aggiornati ogni mese per ottenere le massime prestazioni dalle GPU, ai modelli IA all'avanguardia, utilizzati per stabilire record di benchmark nel MLPerf, il catalogo NGC è un componente essenziale per arrivare più rapidamente ai tempi di soluzione e ridurre i tempi di commercializzazione.
I container vengono sottoposti a rigorosi controlli di sicurezza alla ricerca di comuni vulnerabilità ed esposizioni al rischio, chiavi di crittografia, chiavi private e metadati prima di essere pubblicati nel catalogo. Le valutazioni di sicurezza e i report di scansione dettagliati vengono forniti per ogni container per verificare che soddisfi i criteri di sicurezza della tua azienda.
Il registro privato NGC offre agli utenti uno spazio sicuro, cloud-native, per archiviare container personalizzati, modelli, script di modelli e grafici Helm e condividerli all'interno della propria organizzazione. L'accesso al registro privato NGC è disponibile ai clienti che hanno acquistato il servizio Enterprise Support con NVIDIA DGX™ o con NVIDIA-Certified Systems™.
Il software del catalogo NGC viene eseguito su server bare-metal, Kubernetes o in ambienti virtualizzati e può essere distribuito in locale, nel cloud o sull'edge, massimizzando l'utilizzo delle GPU, la portabilità e la scalabilità delle applicazioni. Gli utenti possono gestire il ciclo di vita completo dello sviluppo IA con NVIDIA Base Command.
Il catalogo software NGC è compatibile con una vasta gamma di piattaforme NVIDIA accelerate da GPU, tra cui NVIDIA-Certified Systems, sistemi NVIDIA DGX, workstation basate su NVIDIA TITAN e NVIDIA RTX™ e ambienti virtualizzati con NVIDIA Virtual Compute Server.
Il software del catalogo NGC può essere distribuito su qualsiasi istanza basata su GPU. Il software può essere distribuito direttamente su macchine virtuali (VM) o su servizi Kubernetes offerti da importanti provider di servizi cloud (CSP). Il software NVIDIA AI semplifica alle imprese lo sviluppo e la distribuzione delle soluzioni nel cloud.
Con l'espansione del computing oltre i data center e fino all'edge, il software del catalogo NGC può essere distribuito su sistemi edge basati su Kubernetes per inferenza a bassa latenza e throughput elevato. Distribuisci, gestisci e scala in modo sicuro le applicazioni IA da NGC sull'infrastruttura edge distribuita con NVIDIA AI Enterprise.
Il catalogo NGC offre una gamma di risorse che soddisfano le esigenze di esperti di dati, sviluppatori e ricercatori con vari livelli di competenze, tra cui container, modelli pre-addestrati, SDK specifici per dominio, raccolte basate su casi d'uso e grafici Helm per implementazioni IA più veloci.
Il catalogo NGC include container per i principali software di scienza dei dati e IA, calibrati, testati e ottimizzati da NVIDIA. Sono inoltre disponibili container per applicazioni HPC e analisi dei dati completamente testati, per permettere agli utenti di creare soluzioni da un framework collaudato con controllo completo.
Il catalogo NGC include NVIDIA TAO Toolkit, NVIDIA Triton™ Inference Server e NVIDIA TensorRT™ per consentire agli sviluppatori di applicazioni di deep learning e agli esperti di dati di ri-addestrare modelli di deep learning, ottimizzarli e distribuirli per l'inferenza.
Inizia subito con modelli pre-addestrati, script di codice dettagliati con istruzioni passo passo e script di supporto per una varietà di operazioni IA comuni, ottimizzati per le GPU NVIDIA Tensor Core. I modelli possono inoltre essere facilmente ri-addestrati aggiornando solo pochi layer e risparmiando tempo prezioso. Ogni modello è accompagnato da un riepilogo che fornisce i dettagli sul set di dati utilizzato per il training, la documentazione dettagliata e le eventuali limitazioni.
Le raccolte semplificano l'individuazione di container di framework, modelli, notebook Juptyer e altre risorse compatibili per iniziare subito con l'IA. Le rispettive raccolte forniscono inoltre la documentazione dettagliata per distribuire il contenuto per casi d'uso specifici.
Il catalogo NGC offre raccolte pronte all'uso per varie applicazioni, tra cui NLP, ASR, analisi video intelligente e rilevamento di oggetti.
I grafici Helm automatizzano la distribuzione software su cluster Kubernetes. Il catalogo NGC include grafici Helm per Kubernetes che semplificano la distribuzione sicura e coerente di software NVIDIA e di terze parti.
NVIDIA GPU Operato è una suite di driver NVIDIA, runtime di container, plug-in per dispositivi e software di gestione che i team IT possono installare sui cluster Kubernetes per dare agli utenti l'accesso più rapido ai carichi di lavoro.
Il catalogo NGC include NVIDIA TAO Toolkit, NVIDIA Triton™ Inference Server e NVIDIA TensorRT™ per consentire agli sviluppatori di applicazioni di deep learning e agli esperti di dati di ri-addestrare modelli di deep learning, ottimizzarli e distribuirli per l'inferenza.
Scopri come DeepZen, un'azienda IA che si occupa di linguaggio umano con emozioni, sfrutta il catalogo NGC per automatizzare processi come registrazioni audio e vocali.
Scopri come la start-up IA Neurala accelera di 8 volte il training e l'inferenza su deep learning per la piattaforma Brain Builder.
Scopri come gli amministratori HPC della Clemson University supportano container ottimizzati da GPU per aiutare gli scienziati ad accelerare la ricerca.
Scopri come la University of Arizona impiega i container del catalogo NGC per accelerare la ricerca scientifica, creando cloud 3D direttamente sui droni.
Accelerare i flussi di lavoro con il catalogo NGC
I partner NVIDIA offrono una vasta gamma di soluzioni per scienza dei dati, training e inferenza con IA, HPC e visualizzazione.
Scopri come pubblicare il tuo software ottimizzato per GPU nel catalogo NGC.
Scopri gli ultimi aggiornamenti e annunci del catalogo NGC.
Video tutorial con istruzioni passo passo per utilizzare il catalogo NGC.
Guarda tutte le principali sessioni dedicate all'NGC on-demand.
Scopri come utilizzare il catalogo NGC con queste istruzioni dettagliate.
Il catalogo NGC offre una raccolta completa di container accelerati da GPU per IA, machine learning e HPC testati e pronti per l'esecuzione su GPU NVIDIA locali, su cloud o sull'Edge. Inoltre, fornisce modelli pre-addestrati, script e soluzioni di settore facilmente integrabili nei flussi di lavoro esistenti.
La compilazione e la distribuzione di framework di deep learning possono essere lunghe e inclini a errori. L'ottimizzazione del software per l'IA richiede competenze. La creazione di modelli richiede competenze, tempo e risorse di calcolo. Il catalogo NGC si occupa di queste operazioni con software e strumenti ottimizzati da GPU che gli esperti di dati, gli sviluppatori, i team IT e gli utenti possono sfruttare per concentrarsi sulle soluzioni.
Ogni container include di un set preintegrato di software accelerato da GPU. Lo stack include l'applicazione o il framework scelti, NVIDIA CUDA® Toolkit, librerie accelerate e altri driver necessari, tutti testati e calibrati per lavorare insieme immediatamente senza alcuna configurazione aggiuntiva.
Il catalogo NGC include i principali software IA, tra cui TensorFlow, PyTorch, MxNet, NVIDIA TensorRT, RAPIDS™ e molti altri. Sfoglia il catalogo NGC per visualizzare l'elenco completo.
I container NGC possono essere eseguiti su PC, workstation, cluster HPC, sistemi NVIDIA DGX, GPU NVIDIA su provider cloud supportati e NVIDIA-Certified Systems. I container vengono eseguiti nei runtime Docker e Singularity. Per ulteriori informazioni, consulta la documentazione di NGC.
NVIDIA immagini di macchine virtuali nella sezione del marketplace di ciascun provider di servizi cloud supportato. Per eseguire un container NGC, è sufficiente selezionare il tipo di istanza appropriato, eseguire l'immagine NGC ed estrarre il container dal catalogo NGC. La procedura esatta varia a seconda del provider cloud, ma è possibile trovare istruzioni dettagliate nella documentazione di NGC.
I software di deep learning più richiesti come TensorFlow, PyTorch e MXNet vengono aggiornati ogni mese dagli ingegneri NVIDIA per ottimizzare lo stack software completo e ottenere il massimo dalle GPU NVIDIA.
Il download dei container del catalogo NGC (soggetto ai termini di utilizzo) non prevede alcun costo. Tuttavia, per l'esecuzione nel cloud, ogni provider di servizi cloud avrà i propri prezzi per le istanze di calcolo GPU.
No, è un portale che fornisce software, servizi aziendali e software ottimizzati da GPU.
Il registro privato NGC è stato sviluppato per offrire agli utenti uno spazio sicuro per archiviare e condividere container personalizzati, modelli, script di modelli e grafici Helm all'interno della propria impresa. Il registro privato permette di proteggere la proprietà intellettuale migliorando la collaborazione.
Gli utenti possono accedere al forum per sviluppatori NVIDIA supportato da un vasta community di esperti di IA e GPU che fanno parte dell'ecosistema di clienti, partner e dipendenti di NVIDIA.
Inoltre, i servizi di supporto NGC forniscono assistenza dai livelli L1 a L3 su NVIDIA-Certified Systems, disponibili attraverso i nostri partner OEM.
Gli NVIDIA-Certified Systems, comprendenti entrambe le piattaforme server NVIDIA EGX™ e HGX™, consentono alle imprese di scegliere con fiducia soluzioni hardware e software ottimizzate per alte prestazioni che gestiscono in modo sicuro e ottimale i carichi di lavoro IA, in configurazioni piccole e su larga scala. Vedi l'elenco completo di NVIDIA-Certified Systems.