Pour s’adapter au rythme des entreprises et répondre aux exigences du calcul intensif, les applications de HPC Exascale et les modèles d’IA incluant des billions de paramètres requièrent la mise en œuvre de communications fluides à haute vitesse entre tous les GPU du même cluster.
La technologie NVLink de quatrième génération peut faire évoluer les communications E/S multi-GPU sur plusieurs serveurs NVIDIA DGX™ et HGX™ à un débit bidirectionnel de 900 Go/s par GPU, ce qui représente une bande passante 7 fois plus élevée que la norme PCIe Gen5.
La technologie NVIDIA NVSwitch™ de troisième génération prend en charge le protocole de calcul en réseau SHARP™ (Scalable Hierarchical Aggregation and Reduction Protocol), auparavant exclusivement disponible avec Infiniband. Cette technologie offre un rendement total deux fois plus important avec 8 serveurs GPU H200 ou H100 par rapport aux systèmes dotés de GPU A100 Tensor Core de génération précédente.
Les systèmes DGX GH200 avec commutateur NVLink prennent en charge des clusters pouvant inclure jusqu’à 256 GPU H200 et fournissent une bande passante All-to-All pouvant atteindre 57,6 téraoctets par seconde (To/s).