NVIDIA Grace Blackwell GB200

NVIDIA GB200 NVL72

생성형 AI의 새로운 시대를 지원합니다.

실시간 1조 개 매개 변수 모델 활용

GB200 NVL72는 랙 스케일의 수랭식 설계로 36개의 Grace CPU와 72개의 Blackwell GPU를 연결합니다. 거대한 단일 GPU 역할을 하는 72GPU NVLink 도메인을 갖추고 있으며, 수조 개의 매개변수가 있는 실시간 거대 언어 모델(LLM) 추론 성능을 30배 향상시킵니다.

GB200 Grace Blackwell 슈퍼칩은 NVIDIA GB200 NVL72의 핵심 구성 요소로, 2개의 고성능 NVIDIA Blackwell Tensor 코어 GPU와 1개의 NVIDIA Grace™ CPU를 NVIDIA NVLink™-C2C 인터커넥트를 통해 2개의 Blackwell GPU에 연결합니다.

실시간 1조 매개 변수 추론 및 훈련을 위한 Blackwell 랙 스케일 아키텍처

NVIDIA GB200 NVL72는 단일 랙의 엑사스케일 컴퓨터입니다. 역대 최대 규모의 NVIDIA® NVLink® 도메인으로 상호 연결된 36개의 GB200을 갖춘 NVLink 스위치 시스템은 AI 및 고성능 컴퓨팅(HPC) 워크로드를 위해 초당 130테라바이트(TB/s)의 낮은 레이턴시 GPU 통신을 제공합니다.

하이라이트

차세대 AI 및 가속 컴퓨팅 강화

LLM 추론

30배

LLM 훈련

4배

높은 에너지 효율

25배

데이터 처리

18배

LLM 추론 및 에너지 효율성: TTL = 50밀리초(ms) 실시간, FTL = 5초, 32,768 입력/1,024 출력, NVIDIA HGX™ H100 스케일 오버 InfiniBand(IB) 대 GB200 NVL72, 훈련 1.8T MOE 4096x HGX H100 스케일 오버 IB 대 456x GB200 NVL72 스케일 오버 IB. 클러스터 크기: 32,768
TPC-H Q4 쿼리에서 파생된 스내피/디플레이트 압축을 사용한 데이터베이스 병합 및 집계 워크로드. x86, H100 단일 GPU 및 GB200 NLV72의 단일 GPU와 Intel Xeon 8480+에 대한 사용자 맞춤형 쿼리 구현 비교
예상 성능은 변경될 수 있습니다.

실시간 LLM 추론 성능 차트

실시간 LLM 추론

GB200 NVL72는 최첨단 기능과 2세대 Transfomer Engine을 탑재하여 FP4 AI를 가능하게 합니다. 이 제품을 5세대 NVIDIA NVLink와 결합하면 수조 개의 매개변수가 있는 언어 모델에서 실시간 LLM 추론 성능을 30배 향상시킵니다. 이러한 발전은 새로운 마이크로스케일링 형식을 도입하여 높은 정확도와 더 많은 처리량을 제공하는 차세대 Tensor 코어를 통해 가능해졌습니다. 또한 GB200 NVL72는 NVLink와 수랭식 기술을 사용하여 통신 병목 현상을 극복할 수 있는 거대한 단일 72GPU 랙을 만듭니다.

대규모 훈련 성능 차트

대규모 훈련

GB200 NVL72는 FP8 정밀도를 갖춘 더 빠른 2세대 Transformer Engine을 탑재하여 거대 언어 모델(LLM)에 대한 훈련을 4배 더 빠르게 수행할 수 있습니다. 이 획기적인 발전은 1.8TB/s의 GPU 간 인터커넥트, InfiniBand 네트워킹, NVIDIA Magnum IO™ 소프트웨어를 제공하는 5세대 NVLink으로 가능해졌습니다.

에너지 효율적인 인프라 성능 차트

에너지 효율적인 인프라

수랭식 GB200 NVL72 랙은 데이터센터의 탄소 발자국과 에너지 소비량을 줄여줍니다. 수랭식 기술은 컴퓨팅 밀도를 높이고, 설치 공간을 줄이며, 대규모 NVLink 도메인 아키텍처를 통한 고대역폭, 저지연 GPU 통신을 용이하게 합니다. NVIDIA H100 공랭식 인프라와 비교했을 때 GB200은 물 소비량을 줄이면서 동일한 전력에서 25배 더 높은 성능을 제공합니다.

데이터 처리 성능 차트

데이터 처리

데이터베이스는 기업의 대용량 데이터 처리 및 분석에서 중요한 역할을 합니다. GB200은 고대역폭 메모리 성능의 NVLink-C2CNVIDIA Blackwell 아키텍처의 전용 압축 해제 엔진을 활용하여 주요 데이터베이스 쿼리 속도를 CPU 대비 18배 향상시키고 TCO를 5배 절감합니다.

특징

기술 혁신

Blackwell Architecture AI Icon

Blackwell 아키텍처

NVIDIA Blackwell 아키텍처는 가속 컴퓨팅의 획기적인 발전을 제공하여 탁월한 성능, 효율성 및 확장성으로 컴퓨팅의 새로운 시대를 열어갑니다.

Grace CPU Icon

NVIDIA Grace CPU

NVIDIA Grace CPU 은 AI, 클라우드, HPC(고성능 컴퓨팅) 애플리케이션을 실행하는 최신 데이터센터를 위해 설계된 획기적인 프로세서입니다. 현재 최고의 서버 프로세서 대비 2배의 에너지 효율로 뛰어난 성능과 메모리 대역폭을 제공합니다.

NVSwitch Icon

5세대 NVIDIA NVLink

엑사스케일 컴퓨팅과 수조 개의 매개변수가 있는 AI 모델의 잠재력을 최대한 활용하려면 서버 클러스터의 모든 GPU 간에 빠르고 원활한 통신이 필수적입니다. 5세대 NVLink는 조 단위 또는 수조 단위의 매개변수가 있는 AI 모델에 대해 가속화된 성능을 제공하는 확장형 인터커넥트입니다.

NVIDIA Networking DPU Icon

NVIDIA 네트워킹

데이터센터의 네트워크는 분산된 AI 모델 훈련과 생성형 AI 성능을 뒷받침하는 핵심 기반으로, AI 발전과 성능을 촉진하는 데 매우 중요한 역할을 합니다.  NVIDIA Quantum-X800 InfiniBand, NVIDIA Spectrum™-X800 Ethernet, NVIDIA® BlueField®-3 DPU는 수백, 수천 개의 Blackwell GPU에서 효율적인 확장성을 구현하여 애플리케이션 성능을 최적화합니다.

새로운 산업 혁명을 위한 AI 팩토리

NVIDIA GB300 NVL72

NVIDIA GB300 NVL72는 Hopper 플랫폼 대비 40배 더 뛰어난 AI 추론 성능과 40TB의 고속 메모리를 제공하며, Quantum-X800 InfiniBand 또는 Spectrum™-X Ethernet을 사용하는 NVIDIA ConnectX®-8 SuperNIC와의 네트워킹 플랫폼 통합을 지원합니다. Blackwell Ultra는 에이전틱 시스템과 추론에서부터 30배 더 빠른 실시간 비디오 생성에 이르기까지 가장 복잡한 워크로드에서도 획기적인 성능을 제공합니다.

NVIDIA GB300 NVL72

사양

GB200 NVL72 사양

  GB200 NVL72 GB200 Grace Blackwell Superchip
컨피규레이션 36 Grace CPU : 72 Blackwell GPUs 1 Grace CPU : 2 Blackwell GPU
FP4 코어1 1,440 PFLOPS 40 PFLOPS
FP8/FP6 코어1 720 PFLOPS 20 PFLOPS
INT8 Tensor 코어1 720 POPS 20 POPS
FP16/BF16 Tensor 코어1 360 PFLOPS 10 PFLOPS
TF32 Tensor 코어 180 PFLOPS 5 PFLOPS
FP32 5,760 TFLOPS 160 TFLOPS
FP64 2,880 TFLOPS 80 TFLOPS
FP64 Tensor 코어 2,880 TFLOPS 80 TFLOPS
GPU 메모리 대역폭 최대 13.4TB HBM3e | 576TB/s 최대 372GB HBM3e | 16TB/s
NVLink 메모리 대역폭 130TB/s 3.6TB/s
CPU 코어 수 2592 Arm® Neoverse V2 코어 72 Arm Neoverse V2 코어
CPU 메모리 대역폭 최대 17TB LPDDR5X | 최대 18.4TB/s 최대 480GB LPDDR5X | 최대 512GB/s

시작하기

뉴스레터 구독하기

등록하고 NVIDIA Blackwell 출시 시기를 알아보세요.

Select Location
Middle East