Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
Die Grundlage für Ihr KI-Kompetenzzentrum.
NVIDIA DGX™ B200 ist eine einheitliche KI-Plattform für Pipelines von der Entwicklung bis zur Bereitstellung in Unternehmen jeglicher Größe und in jeder Phase ihrer KI-Reise. Ausgestattet mit acht NVIDIA Blackwell-GPUs, die über NVIDIA® NVLink® der fünften Generation miteinander verbunden sind, bietet DGX B200 eine bahnbrechende Leistung mit der 3-fachen Trainingsleistung und der 15-fachen Inferenzleistung der Vorgängergenerationen. Durch die Nutzung der NVIDIA Blackwell-GPU-Architektur kann DGX B200 diverse Workloads bewältigen, einschließlich großer Sprachmodelle, Empfehlungssysteme und Chatbots, und ist damit ideal für Unternehmen geeignet, die ihre KI-Transformation beschleunigen möchten.
Erfahren Sie, wie Unternehmen mit DGX B100 jeden KI-Workload beschleunigen können – von der Datenvorbereitung über das Training bis hin zur Inferenz.
Erfahren Sie, wie führende Unternehmen von der NVIDIA DGX-Plattform und NVIDIA NeMo™ Unterstützung erfahren haben.
Vorteile
Unternehmen benötigen enorme Mengen an Rechenleistung, um komplexe KI-Datensätze in jeder Phase der KI-Pipeline zu verarbeiten, vom Training über das Finetuning bis hin zur Inferenz. Mit NVIDIA DGX B200 haben Unternehmen die Möglichkeit, ihre Entwickler mit einer einzigen Plattform auszustatten, die zur Beschleunigung ihrer Workflows entwickelt wurde.
Basierend auf den Fortschritten der NVIDIA Blackwell-Architektur im Computing bietet DGX B200 die 3-fache Trainingsleistung und die 15-fache Inferenzleistung von DGX H100. Als Grundlage für NVIDIA DGXBasePOD™ und NVIDIA DGX SuperPOD™ bietet DGX B200 bahnbrechende Leistung für jeden Workload.
DGX B200 ist eine vollständig optimierte Hardware- und Softwareplattform, welche die vollständige NVIDIA KI-Softwarelösung, einschließlich NVIDIA Base Command und NVIDIA AI Enterprise, umfasst und ein reichhaltiges Ökosystem von Drittanbieter-Support und Zugriff auf Expertenberatung durch professionelle NVIDIA-Services bietet.
Leistung
Die projizierte Leistung kann Änderungen unterliegen. Token-to-Token-Latenz (TTL) = 50 ms in Echtzeit, erste Token-Latenz (FTL) = 5 s, Eingabesequenzlänge = 32.768, Ausgabesequenzlänge = 1.028, 8x Acht-Wege-DGX H100-GPUs mit Luftkühlung vs. 1x Acht-Wege-DGX B200 mit Luftkühlung, pro GPU-Leistungsvergleich.
Änderungen der prognostizierten Leistung vorbehalten. Leistung von 32.768 GPUs, 4.096 Acht-Wege-DGX H100-Cluster mit Luftkühlung: 400G IB-Netzwerk, 4.096 Acht-Wege-DGX B200-Cluster mit Luftkühlung: 400G IB-Netzwerk.
Technische Daten
Ressourcen
NVIDIA DGX SuperPOD™ mit DGX B200-Systemen, bietet führenden Unternehmen die Möglichkeit, eine große, schlüsselfertige Infrastruktur bereitzustellen, die sich auf die KI-Expertise von NVIDIA stützt.
NVIDIA Enterprise Services bieten Support, Schulungen und professionelle Services für Ihre DGX-Infrastruktur. Mit der Unterstützung unserer NVIDIA-Experten bei jedem Schritt Ihrer KI-Reise können Sie dank der Enterprise Services Ihre Projekte schnell und erfolgreich zum Laufen zu bringen.
Erfahren Sie, wie Sie mit KI schneller bahnbrechende Innovationen erzielen, und erhalten Sie besondere Technikschulungen, die speziell für DGX-Kunden von den KI-Experten des NVIDIA Deep Learning Institute (DLI) angeboten werden.
Erste Schritte
Die DGX-Plattform umfasst eine Vielzahl von Produkten und Dienstleistungen, die den Anforderungen jedes Unternehmens, das KI nutzt, gerecht werden.
NVIDIA DGX ist der bewährte Standard, auf dem Unternehmens-KI basiert.
Sprechen Sie mit einem NVIDIA-Produktspezialisten über Ihre beruflichen Anforderungen.