NVIDIA Grace Blackwell GB200

NVIDIA GB200 NVL72

Solution de pointe pour la nouvelle ère du calcul.

Traitez en temps réel des modèles complexes dotés de plusieurs billions de paramètres

GGB200 NVL72 permet de connecter 36 CPU Grace et 72 GPU Blackwell via un modèle rackable à refroidissement liquide. Cette solution assure la mise en œuvre d'un domaine NVLink à 72 GPU agissant comme un GPU unique à même de fournir des capacités d'inférence en temps réel 30 fois plus rapide avec les grands modèles de langage (LLM) dotés de plusieurs billions de paramètres.

Le processeur GB200 Grace Blackwell Superchip est un composant-clé de NVIDIA GB200 NVL72, qui permet de connecter deux GPU NVIDIA Blackwell Tensor Core hautes performances et un CPU NVIDIA Grace™ aux deux GPU Blackwell à l'aide de l'interconnexion NVIDIA NVLink™-C2C.

Architecture rackable Blackwell pour l’entraînement et l’inférence en temps réel de modèles dotés de plusieurs billions de paramètres

Le NVIDIA GB200 NVL72 constitue un ordinateur dédié au calcul Exascale utilisable via un rack unique. En s'appuyant sur 36 systèmes GB200 interconnectés via le domaine NVIDIA® NVLink® le plus évolué à ce jour, le système de commutation NVLink permet de mettre en œuvre des communications GPU à faible latence à un débit record de 130 téraoctets par seconde (To/s) pour les charges de travail d’IA et de calcul haute performance (HPC).

Points-clés

Moteur du calcul accéléré et des applications d'IA de nouvelle génération

Inférence LLM

30X

Entraînement LLM

4X

Efficacité énergétique

25X

Traitement des données

18X

Inférence LLM et efficacité énergétique - Latence jeton-à-jeton (TTL) = 50 ms en temps réel ; Latence du premier jeton (FTL) = 5 s ; Longueur de séquence = 32 768 en entrée / 1024 en sortie. NVIDIA HGX™ H100 mis à l'échelle via InfiniBand (IB) vs GB200 NVL72. Entraînement 1.8T MOE 4096x avec HGX H100 mis à l'échelle via IB vs 456x avec GB200 NVL72 mis à l'échelle via IB. Taille de cluster : 32 768
Charge de travail portant sur des requêtes de jointure et d'agrégation de base de données avec compression Snappy / Deflate dérivées de TPC-H Q4. Implémentation de requêtes personnalisées pour un CPU x86, un GPU unique H100 et un GPU unique avec GB200 NLV72 vs un CPU Intel Xeon 8480+
Mesures de performance susceptibles d’être modifiées.

Graphique des performances d'inférence LLM en temps réel

Inférence des LLM en temps réel

Le GB200 NVL72 présente des capacités de pointe et un moteur de transformateur de deuxième génération, qui permet l'IA FP4. Lorsqu'il est couplé à NVIDIA NVLink de cinquième génération, il offre des performances d'inférence des LLM en temps réel 30 fois plus rapides pour les modèles de langage à plusieurs billions de paramètres. Cette avancée est rendue possible par une nouvelle génération de cœurs Tensor, qui introduisent de nouveaux formats de microscalage, offrant une précision élevée et un débit plus élevé. En outre, le GB200 NVL72 utilise NVLink et le refroidissement liquide pour créer un seul rack massif de 72 GPU capable de surmonter les goulets d'étranglement en matière de communication.

Graphique des performances d'entraînement à grande échelle

Entraînement à grande échelle

Le GB200 NVL72 inclut un moteur de transformateur de deuxième génération plus rapide, doté d'une précision FP8, ce qui permet d'entraîner quatre fois plus rapidement les grands modèles de langage à grande échelle. Cette avancée est complétée par la 5ème génération NVLink, qui fournit 1,8 To/s d'interconnexion GPU-à-GPU, la mise en réseau InfiniBand et le logiciel NVIDIA Magnum IO™.

Graphique des performances des infrastructures écoénergétiques

Infrastructure écoénergétique

Les racks GB200 NVL72 refroidis par liquide réduisent l'empreinte carbone et la consommation d'énergie des Data Centers. Le refroidissement liquide augmente la densité de calcul, réduit l'espace au sol utilisé et facilite les communications GPU à bande passante élevée et à faible latence avec les grandes architectures de domaine NVLink. Comparé à l'infrastructure NVIDIA H100 refroidie par air, le GB200 offre des performances 25 fois plus élevées à la même consommation, tout en réduisant la consommation d'eau.

Tableau de performances relatif au traitement des données

Traitement des données

Les bases de données jouent un rôle essentiel dans la gestion, le traitement et l'analyse d'importants volumes d'informations dans les entreprises. GB200 tire parti de la bande passante élevée de l'interface NVLink-C2C et des moteurs de décompression dédiés de l'architecture NVIDIA Blackwell pour accélérer le pipeline de demandes de bases de données jusqu'à 18 fois par rapport au traitement CPU, mais également réduire jusqu'à 5 fois le coût total de possession.

Caractéristiques

Avancées technologiques

Icône de l'architecture Blackwell pour l'IA

Architecture NVIDIA Blackwell

L’architecture NVIDIA Blackwell fournit des innovations cruciales pour le calcul accéléré et va définir la nouvelle ère de l'IA générative avec des performances, une efficacité et une évolutivité sans précédent.

Icône CPU NVIDIA Grace

CPU NVIDIA Grace

Le CPU NVIDIA Grace Superchip est un processeur révolutionnaire conçu pour les Data Centers modernes qui exécutent des applications d'IA, de Cloud et de calcul haute performance (HPC). Il fournit des performances et une bande passante mémoire exceptionnelles avec une efficacité énergétique deux fois plus élevée que les processeurs de serveur traditionnels.

Icône NVSwitch

NVIDIA NVLink de 5e génération

Pour exploiter tout le potentiel de l'exascale calcul et des modèles d'IA à plusieurs billions de paramètres, une communication rapide et transparente entre chaque GPU d'un cluster de serveurs est nécessaire. La cinquième génération de NVLink est une interconnexion évolutive qui libère les performances accélérées pour les modèles d'IA à plusieurs billions de paramètres.

NVIDIA Networking DPU Icon

NVIDIA Networking

Le réseau du Data Center joue un rôle crucial dans les avancées et les performances de l'IA, servant d'épine dorsale à l'entraînement des modèles d'IA distribués et aux performances de l'IA générative.  Les DPU NVIDIA Quantum-X800 InfiniBand, NVIDIA Spectrum™-X800 Ethernet et NVIDIA® BlueField®-3 permettent une évolutivité efficace sur des centaines et des milliers de GPU Blackwell pour des performances d'applications optimales.

AI Factory for the New Industrial Revolution

NVIDIA GB300 NVL72

Le NVIDIA GB300 NVL72 offre des performances d'inférence de l'IA 40 fois plus élevées que les plateformes Hopper, 40 To de mémoire rapide et l'intégration des plateformes de mise en réseau avec les NVIDIA ConnectX®-8 SuperNIC à l'aide de Quantum-X800 InfiniBand ou Spectrum™-X Ethernet. Blackwell Ultra offre des performances révolutionnaires sur les charges de travail les plus complexes, des systèmes agentiques et du raisonnement à la génération vidéo en temps réel 30 fois plus rapide.

NVIDIA GB200 Grace Blackwell NVL4 Superchip

Spécifications

GB200 NVL72 - Spécifications

  GB200 NVL72 GB200 Grace Blackwell Superchip
Configuration 36 CPU Grace CPU et 72 GPU Blackwell 1 CPU Grace et 2 GPU Blackwell
FP4 Tensor Core1 1440 PFlops 40 PFlops
FP8/FP6 Tensor Core1 720 PFlops 20 PFlops
INT8 Tensor Core1 720 Pops 20 Pops
FP16/BF16 Tensor Core1 360 PFlops 10 PFlops
TF32 Tensor Core1 180 PFlops 5 PFlops
FP32 5760 TFLOPS 160 TFLOPS
FP64 2880 TFLOPS 80 TFLOPS
FP64 Tensor Core 2880 TFlops 80 TFlops
Mémoire GPU | Bande passante Jusqu’à 13,4 To HBM3e | 576 To/s Jusqu’à 372 Go HBM3e | 16 To/s
Bande passante NVLink 130 To/s 3,6 To/s
Nombre de cœurs CPU 2592 cœurs Arm® Neoverse V2 72 cœurs Arm Neoverse V2
Mémoire CPU | Bande passante Jusqu’à 17 To LPDDR5X | Jusqu’à 18,4 To/s Jusqu'à 480 Go LPDDR5X | Jusqu'à 512 Go/s

Démarrage

Ne manquez aucune information

Inscrivez-vous pour savoir quand NVIDIA Blackwell sera disponible.

Vous allez être redirigé vers une page NVIDIA hébergée en dehors de la France

Continuer
Select Location
Middle East