Der Goldstandard für KI-Fabrik-Infrastrukturen.
Erweitern Sie die Möglichkeiten der Geschäftsinnovation und -optimierung mit dem NVIDIA DGX™ H200. Als Teil der NVIDIA-DGX-Plattform ist der DGX H200 ein KI-Kraftpaket, das die Grundlage von NVIDIA DGX SuperPOD™ und DGX BasePOD™ bildet, beschleunigt durch die bahnbrechende Leistung der NVIDIA H200 Tensor-Core-GPU.
Bauen Sie Ihr KI-Kompetenzzentrum auf dem NVIDIA DGX H200 auf, einer vollständig integrierten Hardware- und Softwarelösung, die NVIDIA Base Command™, die Software-Suite von NVIDIA AI Enterprise sowie Beratung durch Experten von NVIDIA DGXperts beinhaltet.
Nutzen Sie mit der NVIDIA DGX-H200-Architektur 32 PetaFLOPS KI-Leistung und doppelt so schnelle Vernetzung wie bei der vorherigen Generation sowie Highspeed-Skalierbarkeit. Die Lösung ist für die größten Workloads optimiert, einschließlich generativer KI, Verarbeitung natürlicher Sprache und Deep-Learning-Empfehlungsmodellen.
Erleben Sie die Leistungsfähigkeit des NVIDIA DGX H200 auf eine Weise, die zu Ihrem Unternehmen passt: hausintern bei Ihnen, mit einem Colocation-Standort, gemietet von Managed-Service-Anbietern und mehr. Und mit dem DGX-Ready Lifecycle Management erhalten Unternehmen ein vorhersehbares Finanzierungsmodell, um ihre Implementierungen auf dem neuesten Stand zu halten.
GPU | 8 x NVIDIA H200 Tensor Core-GPUs |
GPU-Speicher | 1.128 GB insgesamt |
Leistung | 32petaFLOPS FP8 |
NVIDIA NVSwitch | 4x |
Systemenergieversorgung | ~10,2 kW max. |
CPU | Duale Intel® Xeon® Platinum 8480C Prozessoren 112 Recheneinheiten insgesamt, 2,00 GHz (Base), 3,80 GHz (max. Boost) |
Arbeitsspeicher | 2 TB |
Netzwerke | 4 x OSFP-Ports für 8 x NVIDIA ConnectX-7 VPI-Port mit bis zu 400 Gbit/s NVIDIA InfiniBand/Ethernet |
Management-Netzwerk | 10 Gbit/s Onboard-NIC mit RJ45 100 Gbit/s Ethernet optionaler NIC Host Baseboard Management Controller (BMC) mit RJ45 |
Datenspeicher | OS: 2 x 1,9 TB NVMe M.2 Interner Datenspeicher: 8 x 3,84 TB NVMe U.2 |
Software | NVIDIA AI Enterprise – Optimierte KI-Software NVIDIA Base Command – Orchestrierung, Planung und Cluster-Management NVIDIA DGX OS / Ubuntu / Red Hat Enterprise Linux / RockyS – Betriebssystem |
Systemgewicht | 130,45 kg |
Systemabmessungen | Höhe: 356 mm Breite: 482,2 mm Länge: 897,1 mm |
Betriebstemperatur | 5–30°C (41–86°F) |
Erfahren Sie, wie Ihr Unternehmen die NVIDIA-DGX-Plattform bereitstellen kann.
Kombination der besten Software, Infrastruktur und Expertise von NVIDIA in einer modernen, einheitlichen KI-Entwicklungslösung.
Greifen Sie auf die Dokumentation für DGX-Systeme zu, die bei großen generativen KI-Workloads erstklassige Leistung bieten.