NVIDIA H200 Tensor 核心 GPU

大幅強化人工智慧和高效能運算工作負載。

現已上市。

適用於生成式人工智慧和高效能運算的顯示卡

NVIDIA H200 Tensor 核心 GPU 具備顛覆以往的效能和記憶體功能,可大幅強化生成式人工智慧和高效能運算工作負載。H200 是第一款搭載 HBM3e 的 GPU,更大更快的記憶體可加速生成式人工智慧和大型語言模型 (LLM),同時強化高效能運算工作負載的科學運算。

NVIDIA 大幅提升全球頂尖人工智慧運算平台 Hopper

NVIDIA HGX H200 搭載 NVIDIA H200 Tensor 核心顯示卡與先進記憶體,可處理生成式人工智慧和高效能運算工作負載的大量資料。

重點

體驗效能的全新境界

LLama2 70B 推論

1.9 倍速度提升

GPT3-175B 推論

1.6 倍速度提升

高效能運算

110 倍速度提升

優勢

記憶體容量更大、速度更快,效能更高

NVIDIA H200 採用 NVIDIA Hopper 架構,是第一款能以每秒 4.8 TB 的速度提供 141 GB HBM3e 記憶體的 GPU,容量幾乎是 NVIDIA H100 Tensor 核心 GPU 的兩倍,記憶體頻寬則提升 1.4 倍。H200 更大、更快的記憶體能加速生成式人工智慧和 LLM,同時提升高效能運算工作負載的科學運算,而且能源效率更高、總體擁有成本更低。

初步規格,可能變更。.
Llama2 13B: ISL 128, OSL 2K | Throughput | H100 SXM 1x GPU BS 64 | H200 SXM 1x GPU BS 128
GPT-3 175B: ISL 80, OSL 200 | x8 H100 SXM GPUs BS 64 | x8 H200 SXM GPUs BS 128
Llama2 70B: ISL 2K, OSL 128 | Throughput | H100 SXM 1x GPU BS 8 | H200 SXM 1x GPU BS 32.

透過高效能 LLM 推論取得洞察

在人工智慧不斷演進的狀況下,企業仰賴 LLM 來因應各種推論需求。為龐大的使用者大規模部署人工智慧推論加速器時,必須運用最低的整體擁有成本達到最高的吞吐量。

與 H100 GPU 相比,H200 在處理類似 Llama2 的 LLM 時,可將推論速度大幅提升到最高 2 倍。

大幅強化高效能運算

就高效能運算方面的用途而言,記憶體頻寬相當重要。因為這能加快資料傳輸速度,並減少複雜的處理瓶頸。對於需耗費大量記憶體的高效能運算應用程式,如模擬作業、科學研究和人工智慧,H200 的記憶體頻寬較高,可保障資料存取和操作時的效率,因此取得結果的速度與 CPU 相比提升達 110 倍。

此為初步測得的效能,後續可能有更新資訊
HPC MILC- dataset NERSC Apex Medium | HGX H200 4-GPU | dual Sapphire Rapids 8480
HPC Apps- CP2K: dataset H2O-32-RI-dRPA-96points | GROMACS: dataset STMV | ICON: dataset r2b5 | MILC: dataset NERSC Apex Medium | Chroma: dataset HMC Medium | Quantum Espresso: dataset AUSURF112 | 1x H100 | 1x H200.

此為初步測得的效能,後續可能有更新資訊
Llama2 70B: ISL 2K, OSL 128 | Throughput | H100 1x GPU BS 8 | H200 1x GPU BS 32

降低能源使用量與整體擁有成本

隨著 H200 的推出,能源效率和整體擁有成本將達到全新境界。這項尖端技術可提供無與倫比的效能,並且與 H100 Tensor 核心 GPU 使用相同的功耗設定。人工智慧工廠和超級運算系統不僅速度更快也更環保,所具備的經濟優勢可推動人工智慧和科學界持續進步。

為主流企業伺服器釋放人工智慧加速功能

對資料中心空間有限的客戶而言,NVIDIA H200 NVL 是其理想的選擇,可為人工智慧和高效能運算工作負載提供加速功能,且不受規模的限制。與前一代產品相比,記憶體增加 1.5 倍,頻寬增加 1.2 倍。客戶可在幾小時內微調大型語言模型 (LLM),將推論速度提升 1.8 倍。

適用於企業:人工智慧軟體可簡化開發和部署的流程

NVIDIA AI Enterprise, 搭配 NVIDIA H200 使用,可簡化人工智慧平台的建構過程,進而加速開發和部署可用於實際生產環境的生成式人工智慧、電腦視覺、語音人工智慧等技術。兩者相結合,可帶來企業級的安全性、管理能力、穩定度和支援服務,以便更快速地收集實用的洞察,並加速實現有形商業價值。

規格

NVIDIA H200 Tensor 核心 GPU

尺寸規格 H200 SXM¹ H200 NVL¹
FP64 34 TFLOPS 34 TFLOPS
FP64 Tensor 核心 67 TFLOPS 67 TFLOPS
FP32 67 TFLOPS 67 TFLOPS
TF32 Tensor 核心 989 TFLOPS² 989 TFLOPS²
BFLOAT16 Tensor 核心 1,979 TFLOPS² 1,979 TFLOPS²
FP16 Tensor 核心 1,979 TFLOPS² 1,979 TFLOPS²
FP8 Tensor 核心 3,958 TFLOPS² 3,958 TFLOPS²
INT8 Tensor 核心 3,958 TFLOPS² 3,958 TFLOPS²
GPU 記憶體 141GB 141GB
GPU 記憶體頻寬 每秒 4.8 TB 每秒 4.8 TB
解碼器 7 NVDEC
7 JPEG
7 NVDEC
7 JPEG
機密運算 支援 支援
最大熱設計功耗 (TDP) 高達 700W (配置) 高達 600W (配置)
多執行個體 GPU 最多 7 個 MIGS,每個 16.5GB 最多 7 個 MIGS,每個 16.5GB
尺寸規格 SXM PCIe
互連技術 NVLink:每秒 900 GB
PCIe Gen5:每秒 128 GB
2 向或 4 向 NVIDIA NVLink 橋接器:每秒 900 GB
第五代 PCIe:每秒 128 GB
伺服器選項 搭載 4 或 8 個 GPU 的 NVIDIA HGX H100 合作夥伴與 NVIDIA 認證系統™ 搭載最多 8 個顯示卡的 NVIDIA MGX™ H200 NVL 合作夥伴與 NVIDIA 認證系統
NVIDIA AI Enterprise 包含 涵蓋

立即開始使用

當產品上市時通知我。

NVIDIA H200 Tensor 核心 GPU 規格概述