Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
Le basi per il tuo centro di eccellenza IA.
NVIDIA DGX™ B200 è una piattaforma IA unificata per flussi di sviluppo-distribuzione per aziende di qualsiasi dimensione in qualsiasi fase del percorso verso l'IA. Dotato di otto GPU NVIDIA Blackwell interconnesse con NVIDIA® NVLink® di quinta generazione, DGX B200 offre prestazioni all'avanguardia, con prestazioni di training 3 volte superiori e prestazioni di inferenza 25 volte superiori rispetto alle generazioni precedenti. Sfruttando l'architettura per GPU NVIDIA Blackwell, DGX B200 è in grado di gestire carichi di lavoro diversificati, tra cui modelli linguistici di grandi dimensioni, sistemi recommender e chatbot, il che lo rende ideale per le aziende intente ad accelerare la trasformazione con l'IA.
Scopri come DGX B100 consente alle aziende di accelerare qualsiasi carico di lavoro IA, dalla preparazione dei dati al training e all'inferenza.
Scopri come la piattaforma NVIDIA DGX e NVIDIA NeMo™ hanno potenziato le aziende leader.
Vantaggi
Le aziende necessitano un'enorme potenza di calcolo per gestire set di dati IA complessi in tutte le fasi dello sviluppo IA, dal training alla calibrazione, fino all'inferenza. Con NVIDIA DGX B200, le aziende possono dotare gli sviluppatori di un'unica piattaforma progettata per accelerare i flussi di lavoro.
Basato sui progressi dell'architettura NVIDIA Blackwell nel computing, DGX B200 offre prestazioni di training 3 volte superiori e prestazioni di inferenza 15 volte superiori rispetto a DGX H100. Come base di NVIDIA DGX BasePOD™ e NVIDIA DGX SuperPOD™, DGX B200 offre prestazioni all'avanguardia per qualsiasi carico di lavoro.
DGX B200 è una piattaforma hardware e software completamente ottimizzata che include lo stack software completo NVIDIA AI, tra cui NVIDIA Base Command e il software NVIDIA AI Enterprise, un ricco ecosistema di supporto di terze parti e l'accesso ai consigli degli esperti dei servizi professionali NVIDIA.
Prestazioni
Prestazioni previste soggette a modifica. Latenza token-to-token (TTL) = 50 ms in tempo reale, latenza primo token (FTL) = 5 s, lunghezza sequenza di input = 32.768, lunghezza sequenza di output = 1.028, 8 GPU DGX H100 a otto vie con raffreddamento ad aria vs. 1 GPU DGX B200 a otto vie con raffreddamento ad aria, per il confronto delle prestazioni della GPU.
Prestazioni previste soggette a modifica. Scalabilità 32.768 GPU, cluster 4.096 x DGX H100 a 8 vie con raffreddamento ad aria: rete 400G IB, cluster 4.096 x 8 vie DGX B200 con raffreddamento ad aria: rete 400G IB.
Specifiche
Risorse
NVIDIA DGX SuperPOD™ basato su sistemi DGX B200 consente alle aziende leader di distribuire un'infrastruttura chiavi in mano su larga scala supportata dalle competenze IA di NVIDIA.
Gli NVIDIA Enterprise Services offrono supporto, formazione e servizi professionali per la tua infrastruttura DGX. Con gli esperti NVIDIA disponibili in ogni fase del tuo percorso con l'IA, gli Enterprise Services possono aiutarti a realizzare i tuoi progetti in modo rapido e raggiungere il successo.
Scopri come ottenere risultati all'avanguardia con l'IA, formazione tecnica specializzata più veloce, offerta in esclusiva ai clienti DGX dagli esperti di IA di NVIDIA Deep Learning Institute (DLI).
Inizia
La piattaforma DGX è costituita da una vasta gamma di prodotti e servizi per soddisfare le esigenze di ogni azienda IA.
NVIDIA DGX è lo standard comprovato per l'IA aziendale.
Parla con uno specialista di prodotti NVIDIA delle tue esigenze professionali.