GPU NVIDIA H200 Tensor Core

Accélération significative des charges de travail d'IA et de HPC.

Disponible maintenant.

GPU dédié à l'IA générative et au HPC

Le GPU NVIDIA H200 Tensor Core accélère les charges de travail d'IA générative et de calcul haute performance (HPC) avec d'importantes capacités de mémoire et des performances révolutionnaires. Tout premier GPU doté d'une interface HBM3e, le H200 dispose d'une mémoire plus importante et plus rapide qui permet d’accélérer les modèles d’IA générative et les grands modèles de langage (LLM), tout en faisant avancer le calcul scientifique avec un traitement optimisé des charges de travail de HPC. 

NVIDIA enrichit Hopper, la plateforme de calcul IA la plus performante au monde

Le système HGX H200 embarque un GPU NVIDIA H200 Tensor Core ainsi qu'une mémoire avancée pour gérer d’importants volumes de données avec les applications d'IA générative et de calcul haute performance.

Points-clés

Expérimentez des performances de pointe

Inférence LLama2 70B

1.9X Plus rapide

Inférence GPT-3 175B

1.6X Plus rapide

Calcul haute performance

110X Plus rapide

Avantages

Performances accrues avec une mémoire plus importante et plus rapide

Basé sur l'architecture NVIDIA Hopper™, leNVIDIA H200 est le tout premier GPU à proposer 141 Go de mémoire HBM3e avec une bande passante de 4,8 téraoctets par seconde (To/s) ; soit près du double de la capacité de mémoire d'un GPU NVIDIA H100 Tensor Core avec une bande passante 1,4 fois plus importante. La mémoire du GPU H200, à la fois plus importante et plus rapide, permet d’accélérer l'IA générative et les LLM tout en faisant avancer le calcul scientifique avec un traitement optimisé des charges de travail de HPC grâce à une meilleure efficacité énergétique et à une réduction significative du coût total de possession.

Spécifications préliminaires. Susceptibles d'être modifiées.
Llama2 13B: ISL 128, OSL 2K | Throughput | H100 SXM 1x GPU BS 64 | H200 SXM 1x GPU BS 128
GPT-3 175B: ISL 80, OSL 200 | x8 H100 SXM GPUs BS 64 | x8 H200 SXM GPUs BS 128
Llama2 70B: ISL 2K, OSL 128 | Throughput | H100 SXM 1x GPU BS 8 | H200 SXM 1x GPU BS 32.

Collectez des données à forte valeur ajoutée avec une inférence à hautes performances pour les LLM

Dans le monde de l’IA en évolution permanente, les entreprises exploitent les LLM pour répondre à une grande variété de besoins en matière d’inférence. Un accélérateur d’inférences reposant sur l'IA se doit d’offrir un rendement maximal avec un coût total de possession minimal lorsqu’il est déployé à grande échelle pour un nombre important d’utilisateurs.

Le GPU H200 accélère jusqu'à 2 fois la vitesse d’inférence avec des LLM comme Llama2 par rapport au GPU H100.

Accélérez le calcul haute performance

Une bonne bande passante mémoire est cruciale pour les applications de HPC car elle permet un transfert de données nettement plus rapide, ce qui réduit les goulets d’étranglement relatifs au traitement informatique. Pour les applications HPC gourmandes en mémoire telles que la simulation, la recherche scientifique ou l’intelligence artificielle, la bande passante plus importante du GPU H200 permet d’accéder aux données et de les manipuler plus efficacement, d'où l'obtention de résultats jusqu'à 110 fois plus rapidement qu’avec les configurations uniquement basées sur le traitement CPU.

Spécifications préliminaires. Susceptibles d'être modifiées.
HPC MILC - Jeu de données NERSC Apex Medium | 4 GPU HGX H200 | 2x Sapphire Rapids 8480|Applications HPC - CP2K : jeu de données H2O-32-RI-dRPA-96points | GROMACS : jeu de données STMV | ICON : jeu de données r2b5 | MILC : jeu de données NERSC Apex Medium | Chroma : jeu de données HMC Medium | Quantum Espresso : jeu de données AUSURF112 | 1x H100 SXM | 1x H200 SXM.

Spécifications préliminaires. Susceptibles d'être modifiées.
Llama2 70B: ISL 2K, OSL 128 | Throughput | H100 SXM 1x GPU BS 8 | H200 SXM 1x GPU BS 32

Réduisez la consommation et les coûts d’exploitation

La mise en service d'un GPU H200 permet d'atteindre des niveaux sans précédent d’efficacité énergétique et un coût total de possession significativement plus faible. Cette technologie de pointe fournit des performances incomparables, tout ceci avec un profil de consommation similaire à celui du H100. Les usines basées sur l’IA et les systèmes de calcul intensif, qui sont ainsi non pas seulement plus rapides mais aussi plus respectueux de l’environnement, présentent par conséquent un réel avantage économique qui pousse vers l'avant l'IA et toute la communauté scientifique.

Accélération de l'IA pour les serveurs d’entreprise grand public

Le NVIDIA H200 NVL est le choix idéal pour les utilisateurs professionnels devant composer avec des contraintes d'espace pour leur Data Center, car ce système novateur permet d’accélérer toutes les charges de travail d’IA et de HPC, peu importe leur taille. En s'appuyant sur une mémoire 1,5 fois plus importante et une bande passante 1,2 fois plus élevée par rapport aux systèmes de génération précédente, les utilisateurs peuvent procéder à un réglage de précision des LLM en quelques heures seulement tout en bénéficiant d’une inférence jusqu'à 1,8 fois plus rapide.

Logiciels d'entreprise qui rationalisent le développement et le déploiement de l'IA

L'association de l’environnement logiciel NVIDIA AI Enterpriseet du GPU NVIDIA H200 contribue à rationaliser le développement et le déploiement des solutions d'IA générative, de vision par ordinateur, de reconnaissance vocale et d'autres technologies prêtes pour la production. Grâce aux microservices NIM pour l'inférence, les processus de déploiement intègrent en outre des fonctionnalités avancées de sécurité, de gestion, de stabilité et d’assistance technique. Les entreprises peuvent ainsi accéder plus rapidement à des ressources immédiatement exploitables et générer plus rapidement de la valeur ajoutée.

Spécifications

GPU NVIDIA H200 Tensor Core

Configuration H200 SXM¹ H200 NVL¹
FP64 34 TFLOPS 34 TFLOPS
FP64 Tensor Core 67 TFLOPS 67 TFLOPS
FP32 67 TFLOPS 67 TFLOPS
TF32 Tensor Core 989 TFLOPS² 989 TFLOPS2²
BFLOAT16 Tensor Core 1,979 TFLOPS² 1,979 TFLOPS²
FP16 Tensor Core 1,979 TFLOPS² 1,979 TFLOPS²
FP8 Tensor Core 3,958 TFLOPS² 3,958 TFLOPS²
INT8 Tensor Core 3,958 TFLOPS² 3,958 TFLOPS²
Mémoire GPU 141 Go 141 Go
Bande passante GPU 4.8TB/s 4.8TB/s
Décodeurs 7 NVDEC
7 JPEG
7 NVDEC
7 JPEG
NVIDIA Confidential Computing Oui Oui
Enveloppe thermique (TDP) Jusqu’à 700 W(configurable) Jusqu’à 600 W(configurable)
GPU multi-instances Jusqu’à 7 instances MIG à 16,5 Go Jusqu’à 7 instances MIG à 16,5 Go
Configuration SXM PCIe
Interconnexion NVIDIA NVLink®: 900GB/s
PCIe Gen5: 128GB/s
Pont NVIDIA NVLink 2 ou 4 voies : 900 Go/s PCIe Gen5: 128GB/s
Options de serveur Systèmes partenaires NVIDIA HGX™ H200 et Systèmes certifiés NVIDIA™ avec 4 ou 8 GPU Systèmes partenaires NVIDIA MGX™ H200 NVL et Systèmes certifiés NVIDIA™ avec jusqu'à 8 GPU
NVIDIA AI Enterprise Module d'extension Inclus

Obtenez plus d’informations sur les performances d’entraînement et d’inférence de notre système pour Data Center.

GPU NVIDIA H200 Tensor Core - Spécifications