가동 시간이 일정하게 유지되는 AI 인프라.
DGX GB200 시스템을 갖춘 NVIDIA DGX SuperPOD™는 수조 개의 파라미터를 생성하는 AI 모델을 훈련하고 추론하기 위해 특별히 설계되었습니다. 각 수냉식 랙에는 36개의 NVIDIA GB200 그레이스 슈퍼칩(36개의 NVIDIA Grace CPU와 72개의 Blackwell GPU)이 NVIDIA NVLink로 하나로 연결됩니다. 여러 랙을 NVIDIA Quantum InfiniBand로 연결하여 최대 수만 개의 GB200 슈퍼칩까지 확장할 수 있습니다.
GB200 기반 DGX SuperPOD가 AI 혁신을 가속화하는 방법을 알아보세요.
NVIDIA DGX™ 플랫폼과 NVIDIA NeMo™를 통해 어떻게 선도적인 기업의 역량을 강화했는지 읽어보세요.
이점
지능형 제어 평면은 하드웨어, 소프트웨어 및 데이터센터 인프라 전반에서 수천 개의 데이터 포인트를 추적하여 지속적인 운영 및 데이터 무결성을 보장하고 유지 관리를 계획하며 가동 중단 시간을 방지하도록 클러스터를 자동으로 재구성합니다.
최대 수만 개의 NVIDIA GB200 슈퍼칩으로 확장할 수 있는 DGX GB200 시스템을 갖춘 DGX SuperPOD는 최첨단 1조 개 파라미터 생성형 AI 모델에 대한 학습 및 추론을 손쉽게 수행할 수 있습니다.
각각 하나의 Grace CPU와 두 개의 Blackwell GPU가 탑재된 NVIDIA GB200 슈퍼칩은 5세대 NVLink를 통해 연결되어 초당 1.8테라바이트(TB/s)의 GPU-to-GPU 대역폭을 달성합니다.
리소스
NVIDIA DGX B200 또는 DGX H200 시스템을 갖춘 DGX SuperPOD는 엔터프라이즈 AI 워크로드로 작업하는 대규모 개발 팀에 이상적인 선택입니다.
NVIDIA 엔터프라이즈 서비스는 DGX 인프라에 대한 지원, 교육 및 인프라 전문가를 제공합니다. AI 여정의 모든 단계에서 NVIDIA 전문가들이 함께하는 엔터프라이즈 서비스는 프로젝트를 빠르고 성공적으로 시작하고 실행하도록 지원합니다.
시작하기
DGX 플랫폼은 모든 AI Enterprise의 요구에 맞는 다양한 제품과 서비스로 구성됩니다.
NVIDIA DGX는 엔터프라이즈 AI를 구축하는 검증된 기준입니다.
전문적인 요구에 대해 NVIDIA 제품 전문가에게 문의하세요.
NVIDIA 개인정보보호정책