Die Grundlage für Ihre KI-Fabrik.
NVIDIA DGX™ B200 ist eine einheitliche KI-Plattform für die Entwicklung und Bereitstellung von Pipelines für Unternehmen jeder Größe in jeder Phase ihrer KI-Entwicklung. NVIDIA DGX B200 ist mit acht NVIDIA Blackwell GPUs ausgestattet, die mit NVIDIA® NVLink™ der fünften Generation verbunden sind. Sie bietet die 3-fache Trainingsleistung und die 15-fache Inferenzleistung im Vergleich zu Systemen der vorherigen Generation. DGX B200 nutzt die NVIDIA Blackwell-Architektur und kann verschiedene Workloads bewältigen – einschließlich großer Sprachmodelle, Empfehlungssysteme und Chatbots – und ist somit ideal für Unternehmen, die ihre KI-Transformation beschleunigen möchten.
Vorteile
Leistung
Die voraussichtliche Leistung kann Änderungen unterliegen. Token-zu-Token-Latenz (TTL) = 50 ms Echtzeit, Latenz des ersten Tokens (FTL) = 5 s, Eingabesequenzlänge = 32.768, Ausgabesequenzlänge = 1.028, 8 x NVIDIA DGX H100-GPUs mit Luftkühlung im Vergleich zu 1 x NVIDIA DGX B200 mit Luftkühlung in acht Richtungen, pro GPU-Leistungsvergleich.
Die voraussichtliche Leistung kann Änderungen unterliegen. 32.768-GPU-Skalierung, 4.096 x NVIDIA DGX H100 Acht-Wege-Cluster mit Luftkühlung: 400G-IB-Netzwerk, 4.096 x 8-Wege-NVIDIA DGX B200 luftgekühlter Cluster: 400G-IB-Netzwerk.
Technische Daten
GPU | 8x GPU NVIDIA Blackwell |
GPU-Speicher | 1.440 GB Gesamt-Grafikprozessorspeicher |
Leistung | 72 petaFLOPS-Training und 144 petaFLOPS-Inferenz |
Energieverbrauch | ~14,3 kW max. |
CPU | 2 Intel® Xeon® Platinum 8570-Prozessoren 112 Recheneinheiten insgesamt, 2,1 GHz (Basis), 4 GHz (max. Leistung) |
Arbeitsspeicher | Bis zu 4 TB |
Vernetzung | 4 x OSFP-Ports für 8 x NVIDIA ConnectX-7 VPI-Adapter mit einem Port
|
Management Network | Integrierte Netzwerkkarte (NIC) mit 10 Gb/s und RJ45 100-Gb/s-Ethernet-Netzwerkkarte mit zwei Anschlüssen Host Baseboard Management Controller (BMC) mit RJ45 |
Datenspeicher | Betriebssystem: 2 × 1,9 TB NVMe M.2 Interner Speicher: 8 x 3,84 TB NVMe U.2 |
Software | NVIDIA AI Enterprise: optimierte KI-Software NVIDIA Base Command™: Orchestrierung, Planung und Clusterverwaltung NVIDIA DGX OS/Ubuntu: Betriebssystem |
Rack Units (RU) | 10 RU |
System Dimensions | Höhe: 444 mm (17,5 in) Breite: 482,2 mm (19,0 in) Länge: 897,1 mm (35,3 in) |
Operating Temperature | 5–30 °C |
Enterprise Support | Drei Jahre Standard-Unternehmenssupport für Hardware und Software Zugriff auf Unternehmenssupport-Portal rund um die Uhr Live-Support durch Mitarbeiter während der lokalen Geschäftszeiten |
Ressourcen
NVIDIA DGX SuperPOD ist eine schlüsselfertige Lösung für die KI-Rechenzentrumsinfrastruktur, die für alle Benutzer und Workloads kompromisslose Leistung liefert. DGX SuperPOD ist mit jedem NVIDIA DGX-System konfigurierbar und bietet eine erstklassige beschleunigte Infrastruktur mit skalierbarer Leistung für anspruchsvolle KI-Trainings- und Inferenz-Workloads – mit in der Branche bewährten Ergebnissen – damit die IT kompromisslose Leistung liefern kann.
NVIDIA Mission Control optimiert den KI-Fabrikbetrieb, von Workloads bis zur Infrastruktur, mit erstklassigem Know-how, das als Software bereitgestellt wird. Sie unterstützt NVIDIA Blackwell-Rechenzentren und bietet sofortige Agilität für Inferenz und Training sowie Full-Stack-Intelligenz für die Infrastrukturausfallsicherheit. Jedes Unternehmen kann KI mit Hyperscale-Effizienz ausführen, was KI-Experimente vereinfacht und beschleunigt.
NVIDIA Enterprise Services bieten Support, Schulungen und professionelle Dienstleistungen für Ihre DGX-Infrastruktur. Mit den NVIDIA-Experten, die Ihnen in jeder Phase Ihrer KI-Reise zur Seite stehen, kann Ihnen Enterprise Services helfen, Ihre Projekte schnell und erfolgreich umzusetzen.
Erfahren Sie, wie Sie mit KI schneller bahnbrechende Fortschritte erzielen können: mit diesem speziellen technischen Training, das ausdrücklich für NVIDIA DGX-Kunden von den KI-Experten des NVIDIA Deep Learning Institute (DLI) angeboten wird.
Jetzt starten