고유한 AI 수요를 위한 맞춤형 시스템입니다.
NVIDIA DGX SuperPOD™는 IT가 모든 사용자와 워크로드에 저하 없는 성능을 제공할 수 있도록 하는 AI 데이터센터 인프라입니다. NVIDIA DGX™ 플랫폼의 일부로서 DGX SuperPOD는 업계에서 입증된 결과와 함께 가장 까다로운 AI 워크로드에 대해 선도적인 가속 인프라와 민첩하고 확장 가능한 성능을 제공합니다.
DGX SuperPOD는 엔터프라이즈의 성능 및 안정성 요구 사항을 충족하는 예측 가능한 솔루션입니다. NVIDIA에서 DGX SuperPOD를 광범위하게 테스트하며 엔터프라이즈 AI 워크로드로 최대한도까지 밀어붙이기 때문에 애플리케이션 성능을 걱정할 필요가 없습니다.
DGX SuperPOD는 NVIDIA Base Command™를 기반으로 합니다. NVIDIA Base Command는 AI 워크플로 관리, 컴퓨팅, 스토리지 및 네트워크 인프라를 가속하는 라이브러리, AI 워크로드에 최적화된 운영 체제 등을 포함하는 검증된 소프트웨어입니다.
NVIDIA Base Command Manager를 통해 DGX SuperPOD의 배포, 소프트웨어 프로비저닝, 지속적인 모니터링 및 상태 확인을 원활하게 자동화할 수 있습니다.
DGX SuperPOD에는 설치에서 인프라 관리, 워크로드 확장, 생산 AI 간소화에 이르는 전담 전문 서비스가 포함됩니다. 세계 최대 AI 전문 실무자 팀과 직접 연결할 수 있는 경로인 DGXpert에 대한 전용 액세스를 이용할 수 있습니다.
NVIDIA DGX SuperPOD는 조직을 위한 턴키 AI 데이터센터 솔루션으로 세계적인 수준의 컴퓨팅, 소프트웨어 도구, 전문 지식, 지속적인 혁신을 원활하게 제공합니다. 두 가지 아키텍처 옵션을 갖춘 DGX SuperPOD를 통해 모든 엔터프라이즈는 플랫폼 복잡성으로 인해 어려움을 겪지 않으면서 AI를 비즈니스에 통합하고 혁신적인 애플리케이션을 만들 수 있습니다.
NVIDIA B200 시스템을 활용하는 DGX SuperPOD는 거대 언어 모델 구축, 공급망 최적화, 또는 대량의 데이터에서 인텔리전스 추출 등 복잡하고 다양한 AI 워크로드를 통해 모든 규모의 엔터프라이즈 팀을 지원하는 대규모 인프라에 이상적입니다.
NVIDIA DGX H200 시스템을 사용하는 DGX SuperPOD는 NVIDIA NeMo 프레임워크 및 딥 러닝 추천 시스템을 사용하는 거대 언어 모델(LLM)과 같이 크고 복잡하거나 트랜스포머 기반인 AI 워크로드를 지원하는 대규모 인프라에 가장 적합합니다.
DGX GB200 시스템을 활용하는 DGX SuperPOD는 매개 변수가 조 단위인 NVIDIA GB200 Grace Blackwell 슈퍼칩 기반 생성형 AI 모델의 훈련 및 추론을 위한 지능형 예측 관리 기능을 갖춘 수랭식 랙 규모 AI 인프라입니다.
선도적인 스토리지 기술 공급업체와 협력하여 레퍼런스 아키텍처 솔루션 포트폴리오를 NVIDIA DGX SuperPOD에서 이용할 수 있습니다. NVIDIA 파트너 네트워크를 통해 바로 배포 가능한 완전 통합형 제품으로 제공되는 이러한 솔루션을 사용하면 데이터센터 IT 인프라를 더 쉽고 빠르게 설계, 배포 및 관리할 수 있습니다.
NVIDIA DGX SuperPOD는 가장 까다로운 AI 워크로드를 처리할 수 있도록 NVIDIA에서 엄격한 테스트와 인증을 거친 엄선된 공급업체의 고성능 스토리지를 포함하는 완전한 AI 인프라 솔루션입니다.