모델의 복잡성이 폭발적으로 증가함에 따라 AI의 요구 사항을 충족하기 위해 가속 컴퓨팅과 에너지 효율성이 매우 중요해지고 있습니다. NVIDIA Grace™ CPU는 독보적인 성능과 효율성을 제공하는 획기적인 Arm® CPU입니다. GPU와 긴밀하게 결합되어 가속 컴퓨팅을 강화하거나 강력하고 효율적인 독립형 CPU로 배포할 수 있습니다. NVIDIA Grace CPU는 차세대 데이터센터의 기반이며 다양한 데이터센터 요구에 맞게 다양한 구성으로 사용할 수 있습니다.
Grace 라인업 살펴보기
NVIDIA GB200 NVL72
NVIDIA GB200 Grace Blackwell 슈퍼칩은 두 개의 NVIDIA Blackwell Tensor 코어 GPU와 하나의 Grace CPU를 결합하며, NVIDIA® NVLink®로 연결된 대규모 72-GPU 시스템인 GB200 NVL72까지 확장하여 거대 언어 모델을 지원하는 30배 빠른 실시간 추론을 제공할 수 있습니다.
DGX Spark는 개발자 데스크톱에 NVIDIA Grace Blackwell™의 강력한 성능을 제공합니다. 128GB의 통합 시스템 메모리와 결합된 GB10 슈퍼칩을 통해 AI 연구원, 데이터 과학자 및 학생들은 최대 2000억 개의 파라미터를 사용하여 로컬에서 AI 모델을 작업할 수 있습니다.
가장 복잡한 AI와 HPC 문제를 해결하려면 대용량 및 고대역폭 메모리(HBM)가 필요합니다. NVIDIA NVLink-C2C는 NVIDIA Grace CPU와 NVIDIA GPU 사이에 900GB/s의 양방향 대역폭을 제공합니다. 이 연결은 단순한 프로그래밍을 위해 시스템과 HBM GPU 메모리를 통합한 캐시 일관성 메모리 주소 공간을 제공합니다. CPU와 GPU 간의 일관된 고대역폭 연결은 미래의 가장 복잡한 문제를 빠르게 해결하는 핵심 요소입니다.
LPDDR5X로 고대역폭 CPU 메모리 활용
NVIDIA Grace는 서버용 CPU 중 최초로 오류 보정 코드(ECC)와 같은 메커니즘을 통해 서버급 안정성을 갖춘 LPDDR5X 메모리를 활용하여 데이터센터의 요구 사항을 충족하는 동시에 오늘날의 서버 메모리에 비해 2배의 메모리 대역폭과 최대 10배 향상된 에너지 효율성을 제공합니다. NVIDIA Grace LPDDR5X 솔루션은 대규모, 고성능, 최종 수준 캐시와 결합하여 대규모 모델에 필요한 대역폭을 제공하는 동시에 시스템 전력을 절감하여 차세대 워크로드의 성능을 극대화합니다.
Arm Neoverse V2 코어와 NVIDIA 확장 가능한 코히어런시 패브릭으로 성능과 효율성 향상
GPU의 병렬 컴퓨팅 기능은 계속 발전하고 있지만, 여전히 CPU에서 실행되는 직렬 작업으로 워크로드를 제어할 수 있습니다. 빠르고 효율적인 CPU는 워크로드 가속화를 극대화하는 시스템 설계의 중요한 구성 요소입니다. NVIDIA Grace CPU는 Arm Neoverse V2 코어를 NVIDIA 지정 Scalable Coherency Fabric과 통합하여 전력 효율적 설계로 높은 성능을 제공하므로, 과학자와 연구원은 일생의 과업을 더 쉽게 수행할 수 있습니다.
HBM GPU 메모리로 생성형 AI 강화
생성형 AI는 메모리와 컴퓨팅 집약적입니다. NVIDIA GB200 슈퍼칩은 380GB의 HBM 메모리를 사용하여 NVIDIA H100 Tensor 코어 GPU 대비 4.5배 이상의 GPU 메모리 대역폭을 제공합니다. Grace Blackwell의 고대역폭 메모리는 NVLink-C2C를 통해 CPU 메모리에 연결되어 GPU에 거의 860GB의 고속 액세스 메모리를 제공하고 세계에서 가장 복잡한 생성형 AI 및 가속 컴퓨팅 워크로드를 처리하는 데 필요한 메모리 용량과 대역폭을 제공합니다.