NVIDIA GH200 Grace Hopper Superchip

CPU révolutionnaire conçu pour les applications d’IA et de HPC à grande échelle

Performances accrues, mémoire plus rapide et bande passante élevée pour un calcul plus efficace

NVIDIA GH200 Grace Hopper™ Superchip est un processeur révolutionnaire aux performances accélérées, qui a été spécifiquement conçu pour les applications d’IA et de calcul haute performance(HPC) à grande échelle. Cette solution de pointe fournit des performances jusqu’à 10 fois plus élevées pour les applications qui mobilisent plusieurs téraoctets de données, ce qui permet aux scientifiques et aux chercheurs de relever de nouveaux défis pour résoudre les problèmes les plus complexes au monde.

Découvrez notre processeur à hautes performances

NVIDIA Grace Hopper Superchip

NVIDIA GH200 Grace Hopper Superchip

La GH200 Grace Hopper Superchip combine les architectures NVIDIA Grace™ et Hopper™ avec NVIDIA NVLink™-C2C pour fournir un modèle de mémoire CPU+GPU cohérent pour les applications d'IA et de HPC accélérées. Avec une interface cohérente de 900 gigaoctets par seconde (Go/s), cette superpuce est sept fois plus rapide que la PCIe Gen5. Sa mémoire GPU HBM3 et HBM3e permet de booster le calcul accéléré et l'IA générative. GH200 exécute toutes les piles logicielles et plateformes de NVIDIA, y compris NVIDIA AI Enterprise, le kit de développement HPC et Omniverse™

GH200 est actuellement disponible.

NVIDIA GH200 NVL2

Le NVIDIA GH200 NVL2 permet connecte intégralement deux processeurs GH200 Superchip avec la technologie NVLink afin de fournir jusqu’à 288 Go de mémoire graphique HBM avec une bande passante de 10 téraoctets par seconde (To/s) ains que 1,2 To de mémoire CPU rapide. Le GH200 NVL2 fournit une capacité de mémoire GPU jusqu'à 3,5 fois plus élevée et une bande passante 3 fois plus rapide par rapport au GPU NVIDIA H100 Tensor Core au sein d'un seul serveur pour traiter les charges de travail les plus exigeantes en termes de puissance de calcul et de mémoire.

NVIDIA GH200 NVL2

Performances

Graphique montrant l’accélération du calcul scientifique avec le GH200 comme étant 40 fois plus élevée qu’avec le CPU
GH200 comparé à un CPU dual-socket haute de gamme | Physique : MILC Apex Medium

Calcul scientifique

En réunissant les architectures CPU Grace et GPU Hopper basées sur Arm® et NVLink-C2C, les NVIDIA GH200 Superchips accélèrent la recherche scientifique et la découverte sur les superordinateurs du monde entier. Les superordinateurs équipées de NVIDIA Grace Hopper Superchips offrent une puissance de traitement de l'IA économe en énergie de 200 exaflops, soit 200 quintillions de calculs par seconde.

Graphique montrant l'accélération du traitement des données GH200 étant 36 fois plus élevée que le CPU
Résultats NDS-DS en exécutant Apache Spark avec NVIDIA RAPIDS™ Accelerator sur un GH200 16 nœuds avec SF10 par rapport à des CPU premium 16 nœuds.

Traitement des données

Les avancées récentes en matière de stockage et de bande passante de mise en réseau, ainsi que la fin de la loi de Moore, ont déplacé les goulets d’étranglement de l’analyse et des requêtes vers CPU. Avec le GH200, le CPU et le GPU partagent une table de page unique par processus, ce qui permet à tous les threads CPU et GPU d’accéder à toute la mémoire allouée au système qui peut se trouver sur le CPU physique ou la mémoire GPU. Le GH200 supprime la nécessité de copier la mémoire entre le CPU et le GPU, accélérant le traitement des données jusqu'à 36 fois.

Graphique montrant l'accélération de la RAG est plus élevée sur GH200 sur la génération d'intégration et la création d'index ainsi que la recherche vectorielle
Visage | lot = 1,024 | vecteurs de sortie = 85M de taille 768. Recherche vectorielle : lot = 10 000 | requêtes de recherche vectorielle = 10 000 sur 85M vecteurs.

génération augmentée par récupération

La génération augmentée par récupération (RAG) connecte de grands modèles de langage (LLM) aux bases de connaissances pour améliorer la précision des modèles. La RAG nécessite la génération d'intégrations et l'exécution de recherches vectorielles à grande échelle. Les 72 cœurs CPU Grace basés sur Arm à faible consommation accélèrent le prétraitement des données de la base de connaissances, et NVLink-C2C accélère de 7 fois le transfert des données prétraitées vers le GPU Hopper par rapport à PCIe, ce qui permet de multiplier par 30 le processus de génération d'intégration.

Graphique montrant que l'accélération du réseau neuronal de graphe GH200 est 8 fois plus élevée que le CPU+H100
Réseau de neurones graphiques, basé sur les mesures complètes du modèle GraphSAGE en comparant PCIe H100 par rapport à GH200.

Réseau neuronal graphique

Les réseaux de neurones graphes (GNN) sont utilisés dans un large éventail d'applications, comme l'analyse de réseaux sociaux, la découverte de médicaments, la détection des fraudes et la chimie moléculaire. Le GH200 tire parti de la mémoire rapide CPU et GPU combinée pouvant atteindre 624 Go, de 4 pétaFLOPS de GPU H200 et de la NVLink-C2C de 900 Go/s pour accélérer l'entraînement du GNN jusqu'à 8 fois par rapport au GPU H100 PCIe.

Découvrez les laboratoires LaunchPad avec GH200

NVIDIA GH200 NVL32

Accélérez le calcul et l'IA avec Grace Hopper

Dans cette démo, vous allez expérimenter une intégration fluide de la NVIDIA GH200 Grace Hopper Superchip avec les piles logicielles de NVIDIA. Elle comprend des démos interactives, des applications du monde réel et des études de cas, y compris des LLM.

Modèle de référence Grace Hopper pour les charges de travail modernes sur Data Center

NVIDIA MGX avec GH200 pour l'entraînement de l'IA, l'inférence, la 5G et le HPC

NVIDIA MGX™ est une architecture de référence modulaire qui permet d'accélérer une grande variété de charges de travail d’entreprise. En intégrant les capacités avancées de la GH200 Superchip avec les DPU NVIDIA BlueField®-3, les entrées/sorties (E/S) définies par OEM et la technologie NVLink de quatrième génération, MGX offre des solutions sur mesure pour les data centers modernes.

HGX - Entraînement, inférences d’IA et HPC

NVIDIA fournit une assistance exhaustive pour NVIDIA Grace qui inclut des guides d’optimisation des performances, des outils de développement et des bibliothèques logicielles.

Vous allez être redirigé vers une page NVIDIA hébergée en dehors de la France

Continuer
Select Location
Middle East