NVIDIA H200 Tensor 코어 GPU

AI 및 HPC 워크로드 강화하기.

지금 바로 구매하실 수 있습니다.

생성형 AI 및 HPC를 위한 GPU

NVIDIA H200 Tensor 코어 GPU는 게임의 판도를 바꾸는 성능 및 메모리 기능으로 생성형 AI 및 HPC 워크로드를 강화합니다. HBM3e를 탑재한 최초의 GPU인 H200의 더 크고 빠른 메모리는 HPC 워크로드를 위한 과학 컴퓨팅을 발전시키는 동시에 생성형 AI 및 대규모 언어 모델(LLM)의 가속화를 촉진합니다.

세계 최고의 AI 컴퓨팅 플랫폼인 Hopper를 강화하는 NVIDIA

NVIDIA HGX H200은 고급 메모리가 탑재된 NVIDIA H200 Tensor 코어 GPU를 탑재하여 생성형 AI 및 고성능 컴퓨팅 워크로드를 위한 방대한 양의 데이터를 처리합니다.

하이라이트

한 차원 높은 성능 경험

LLama2 70B 추론

1.9배 더 빠른 속도

GPT3-175B 추론

1.6배 더 빠른 속도

고성능 컴퓨팅

110배 더 빠른 속도

이점

더 크고 빠른 메모리를 통한 더 높은 성능

NVIDIA H200은 NVIDIA Hopper 아키텍처를 기반으로 초당 4.8테라바이트(TB/s)의 속도로 141기가바이트(GB)의 HBM3e 메모리를 제공하는 최초의 GPU로, 이는 1.4배 더 많은 메모리 대역폭을 가진 NVIDIA H100 Tensor 코어 GPU의 거의 두 배에 달하는 용량입니다. H200의 더 크고 빠른 메모리는 생성형 AI 및 LLM을 가속화하는 동시에 더 나은 에너지 효율과 낮은 총 소유 비용으로 HPC 워크로드를 위한 과학 컴퓨팅을 발전시킵니다.

예비 사양. 변경될 수 있습니다.
Llama2 13B: ISL 128, OSL 2K | Throughput | H100 SXM 1x GPU BS 64 | H200 SXM 1x GPU BS 128
GPT-3 175B: ISL 80, OSL 200 | x8 H100 SXM GPUs BS 64 | x8 H200 SXM GPUs BS 128
Llama2 70B: ISL 2K, OSL 128 | Throughput | H100 SXM 1x GPU BS 8 | H200 SXM 1x GPU BS 32.

고성능 LLM 추론으로 인사이트 활용하기

끊임없이 진화하는 AI 환경에서 비즈니스는 LLM에 의존하여 다양한 추론 요구 사항을 해결합니다. AI 추론 가속기는 대규모 사용자 기반용으로 규모별로 배포 시 가장 낮은 TCO로 최고 수준의 처리량을 제공해야 합니다.

H200은 Llama2와 같은 LLM을 처리할 때 H100 GPU에 비해 추론 속도를 최대 2배까지 향상시킵니다.

고성능 컴퓨팅 강화

메모리 대역폭은 데이터 전송 속도를 높이고 복잡한 처리 병목 현상을 줄이므로 고성능 컴퓨팅 애플리케이션에 매우 중요합니다. 시뮬레이션, 과학 연구 및 인공지능과 같은 메모리 집약적인 HPC 애플리케이션의 경우 H200의 더 높은 메모리 대역폭을 사용하면 데이터에 효율적으로 액세스하고 조작할 수 있어 CPU에 비해 결과 도출 시간이 110배 더 빠릅니다.

예비 측정 성능으로 변경될 수 있습니다
HPC MILC- dataset NERSC Apex Medium | HGX H200 4-GPU | dual Sapphire Rapids 8480
HPC Apps- CP2K: dataset H2O-32-RI-dRPA-96points | GROMACS: dataset STMV | ICON: dataset r2b5 | MILC: dataset NERSC Apex Medium | Chroma: dataset HMC Medium | Quantum Espresso: dataset AUSURF112 | 1x H100 | 1x H200.

예비 측정 성능으로 변경될 수 있습니다
Llama2 70B: ISL 2K, OSL 128 | Throughput | H100 1x GPU BS 8 | H200 1x GPU BS 32

에너지 및 TCO 절감

H200의 도입으로 에너지 효율성 및 TCO가 새로운 수준에 도달했습니다. 이러한 최첨단 기술은 H100 Tensor 코어 GPU와 동일한 전력 프로파일 내에서 비교할 수 없는 성능을 제공합니다. 더 빠를 뿐만 아니라 더욱 친환경적인 AI 공장과 슈퍼컴퓨팅 시스템은 AI 및 과학 커뮤니티를 발전시키는 경제적 우위를 제공합니다.

주요 엔터프라이즈 서버를 위한 AI 가속 극대화

NVIDIA H200 NVL은 데이터센터 내에 공간 제약이 있는 고객에게 이상적인 선택이며 규모에 상관없이 모든 AI 및 HPC 워크로드를 가속화합니다. 이전 세대에 비해 메모리가 1.5배, 대역폭이 1.2배 증가하여 고객은 몇 시간 이내에 LLM을 미세 조정할 수 있으며 LLM 추론을 1.8배 더 빠르게 경험할 수 있습니다.

엔터프라이즈 지원: 개발 및 배포를 간소화하는 AI 소프트웨어

NVIDIA AI Enterprise는 NVIDIA H200과 함께 AI 지원 플랫폼의 구축을 간소화하여 프로덕션 준비가 완료된 생성형 AI, 컴퓨터 비전, 음성 AI 등의 AI 개발 및 배포를 가속화합니다. 또한 엔터프라이즈급 보안, 관리 용이성, 안정성 및 지원을 제공하여 실행 가능한 인사이트를 더 빠르게 수집하고 실질적인 비즈니스 가치를 더 빠르게 달성합니다.

사양

NVIDIA H200 Tensor 코어 GPU

폼 팩터 H200 SXM¹ H200 NVL¹
FP64 34 TFLOPS 34 TFLOPS
FP64 Tensor 코어 67 TFLOPS 67 TFLOPS
FP32 67 TFLOPS 67 TFLOPS
TF32 Tensor 코어 989 TFLOPS² 989 TFLOPS²
BFLOAT16 Tensor 코어 1,979 TFLOPS² 1,979 TFLOPS²
FP16 Tensor 코어 1,979 TFLOPS² 1,979 TFLOPS²
FP8 Tensor 코어 3,958 TFLOPS² 3,958 TFLOPS²
INT8 Tensor 코어 3,958 TFLOPS² 3,958 TFLOPS²
GPU 메모리 141GB 141GB
GPU 메모리 대역폭 4.8TB/s 4.8TB/s
디코더 7 NVDEC
7 JPEG
7 NVDEC
7 JPEG
コンフィデンシャル コンピューティング サポート対象 サポート対象
최대 열 설계 전력(TDP) 최대 700W(구성 가능) 최대 600W(구성 가능)
멀티 인스턴스 GPU(MIG) 최대 7개의 MIG, 각각 16.5GB 최대 7개의 MIG, 각각 16.5GB
폼 팩터 SXM PCIe
인터커넥트 NVIDIA NVLink®: 900GB/s
PCIe Gen5: 128GB/s
2 ウェイまたは 4 ウェイの NVIDIA NVLink ブリッジ: 900GB/秒
PCIe Gen5: 128GB/秒
서버 옵션 GPU가 4개 또는 8개인 NVIDIA HGX H100 파트너 및 NVIDIA-Certified System™ GPU を 8 基搭載の NVIDIA MGX™ H200 NVL Partner および NVIDIA-Certified Systems
NVIDIA AI Enterprise 애드온 同梱

시작하기

이 제품이 출시되면 알려주세요.

NVIDIA H200 Tensor 코어 GPU 빠른 사양