고유한 AI 수요를 위한 맞춤형 시스템입니다.
NVIDIA DGX SuperPOD™는 IT가 모든 사용자와 워크로드에 저하 없는 성능을 제공할 수 있도록 하는 AI 데이터센터 인프라입니다. NVIDIA DGX™ 플랫폼의 일부로서 DGX SuperPOD는 업계에서 입증된 결과와 함께 가장 까다로운 AI 워크로드에 대해 선도적인 가속 인프라와 민첩하고 확장 가능한 성능을 제공합니다.
DGX SuperPOD는 엔터프라이즈의 성능 및 안정성 요구 사항을 충족하는 예측 가능한 솔루션입니다. NVIDIA에서 DGX SuperPOD를 광범위하게 테스트하며 엔터프라이즈 AI 워크로드로 최대한도까지 밀어붙이기 때문에 애플리케이션 성능을 걱정할 필요가 없습니다.
DGX SuperPOD는 NVIDIA Base Command™를 기반으로 합니다. NVIDIA Base Command는 AI 워크플로 관리, 컴퓨팅, 스토리지 및 네트워크 인프라를 가속하는 라이브러리, AI 워크로드에 최적화된 운영 체제 등을 포함하는 검증된 소프트웨어입니다.
NVIDIA Base Command Manager를 통해 DGX SuperPOD의 배포, 소프트웨어 프로비저닝, 지속적인 모니터링 및 상태 확인을 원활하게 자동화할 수 있습니다.
DGX SuperPOD에는 설치에서 인프라 관리, 워크로드 확장, 생산 AI 간소화에 이르는 전담 전문 서비스가 포함됩니다. 세계 최대 AI 전문 실무자 팀과 직접 연결할 수 있는 경로인 DGXpert에 대한 전용 액세스를 이용할 수 있습니다.
NVIDIA는 3,900억 개의 매개변수를 목표로 일본어용 자체 제작 LLM을 선도하고 있습니다. 이는 원활한 개발 및 배포를 위해 DGX SuperPOD 및 NVIDIA AI Enterprise 소프트웨어 스택을 활용하여 기업의 문화와 관행에 맞게 미세 조정된 AI 솔루션을 비즈니스에 제공합니다.
— Ashiq Khan, 부사장 겸 통합 클라우드 및 플랫폼 사업부 책임자, Softbank Corp
NVIDIA DGX SuperPOD의 강력한 성능과 NeMo의 최적화된 알고리즘 및 3D 병렬 처리 기술로 LLM을 더 효과적으로 훈련했습니다. 다른 플랫폼을 사용하는 것도 고려해 보았지만 하드웨어 수준에서 추론 수준까지 아우르는 전체 스택 환경을 제공하는 대안을 찾기가 어려웠습니다.
- 류휘정, LLM 개발 팀장, KT Corporation
DGX SuperPOD와 자체 개발한 HPC-AI 엔진, HPC-AI 소프트웨어 프레임워크 및 C-DAC의 클라우드 플랫폼이 장착된 210페타플롭스 Param Siddhi AI[슈퍼컴퓨터]는 과학과 엔지니어링을 사용하여 인도 만의 중대한 과제를 해결하기 위한 실험을 가속할 것입니다.
- Dr. Hemant Darbari, Director General, C-DAC(Centre for Development of Advanced Computing)
연구원들이 코로나 19와 같은 질병의 치료제를 발견하기 위해 단백질의 분자 시뮬레이션을 양자 단위의 정확도로 수행할 수 있도록 해줍니다. 6,000년도 더 걸릴 일을 이제는 단 하루 만에 해낼 수 있습니다.
- Adrian Roitberg, Professor of Chemistry, University of Florida
DGX SuperPOD는 NAVER CLOVA가 한국 및 일본 시장을 위한 최첨단 언어 모델을 구축하고 글로벌 시장에서 강력한 AI 플랫폼 플레이어로 발전할 수 있도록 지원하고 있습니다.
- Suk Geun SG Chung, Head of COLVA CIC, Naver Corporation
UF는 NVIDIA DGX SuperPOD인 HiPerGator AI를 활용하여 임상 결과 개선에서 재해 구조 개선에 이르는 다양한 분야의 연구를 주도하기 위해 AI Center of Excellence를 설립했습니다.
KT 는 NVIDIA DGX SuperPOD에서 NVIDIA NeMo™ 프레임워크를 사용하여 복잡한 언어를 마스터함으로써 2,200만 명 이상의 구독자를 지원하는 동시에 스마트 스피커 및 콜센터에 대한 훈련 속도를 2배 높입니다.
DeepL은 DGX SuperPOD인 DeepL Mercury 슈퍼컴퓨터를 사용하여 자체 LLM을 구축하고 가장 혁신적인 언어 AI 기술로 기업과 개인의 역량을 강화합니다.
NVIDIA DGX SuperPOD는 조직을 위한 턴키 AI 데이터센터 솔루션으로 세계적인 수준의 컴퓨팅, 소프트웨어 도구, 전문 지식, 지속적인 혁신을 원활하게 제공합니다. 두 가지 아키텍처 옵션을 갖춘 DGX SuperPOD를 통해 모든 엔터프라이즈는 플랫폼 복잡성으로 인해 어려움을 겪지 않으면서 AI를 비즈니스에 통합하고 혁신적인 애플리케이션을 만들 수 있습니다.
NVIDIA B200 시스템을 활용하는 DGX SuperPOD는 거대 언어 모델 구축, 공급망 최적화, 또는 대량의 데이터에서 인텔리전스 추출 등 복잡하고 다양한 AI 워크로드를 통해 모든 규모의 엔터프라이즈 팀을 지원하는 대규모 인프라에 이상적입니다.
NVIDIA DGX H200 시스템을 사용하는 DGX SuperPOD는 NVIDIA NeMo 프레임워크 및 딥 러닝 추천 시스템을 사용하는 거대 언어 모델(LLM)과 같이 크고 복잡하거나 트랜스포머 기반인 AI 워크로드를 지원하는 대규모 인프라에 가장 적합합니다.
즉시 실행할 수 있는 턴키 방식의 AI 개발 플랫폼을 찾고 계신가요? NVIDIA DGX가 탑재된 Equinix Private AI는 Equinix colocation data centers, 네트워크 연결 및 관리형 서비스를 활용하여 NVIDIA DGX BasePOD 및 DGX SuperPOD™를 호스팅하고 운영합니다.
TOP500에서 10위를 차지한 NVIDIA Eos는 NVIDIA의 AI 혁신을 지원하는 대규모 NVIDIA DGX SuperPOD로, 연구원들이 이전에는 불가능했던 과제를 수행할 수 있도록 지원합니다.
슈퍼컴퓨팅 리스트에서 상위에 랭크된 것에서부터 MLPerf 벤치마크에서 다른 모든 규모별 AI 인프라 옵션을 제친 것에 이르기까지, NVIDIA DGX 플랫폼은 혁신의 선두에 있습니다. 고객이 AI 프로젝트를 위해 NVIDIA DGX를 선택하는 이유를 알아보세요.
세계 최고 수준의 성능을 자랑하는 슈퍼컴퓨터를 설계한 비결을 알아보세요. 생성형 AI 애플리케이션을 강화하기 위해 유사한 클러스터를 구축하는 방법에 대해 자세히 알아보려면 생성형 AI를 위한 차세대 DGX 아키텍처를 시청하세요.
NVIDIA 엔터프라이즈 서비스는 DGX 인프라에 대한 지원, 교육 및 인프라 전문가를 제공합니다. AI 여정의 모든 단계에서 NVIDIA 전문가들이 함께하는 엔터프라이즈 서비스는 프로젝트를 빠르고 성공적으로 시작하고 실행하도록 지원합니다.
NVIDIA DLI(Deep Learning Institute)의 AI 전문가가 DGX 고객에게 특별히 제공하는 이 특별 기술 교육을 통해 AI로 최첨단 혁신을 더 빠르게 달성하는 방법을 알아보세요.
TOP 500에서 9위를 차지한 NVIDIA Eos는 NVIDIA의 AI 혁신을 지원하는 대규모 NVIDIA DGX SuperPOD로, 연구원들이 이전에는 불가능했던 과제를 수행할 수 있도록 지원합니다.
DGX GB200 시스템을 활용하는 DGX SuperPOD는 매개 변수가 조 단위인 NVIDIA GB200 Grace Blackwell 슈퍼칩 기반 생성형 AI 모델의 훈련 및 추론을 위한 지능형 예측 관리 기능을 갖춘 수랭식 랙 규모 AI 인프라입니다.
DGX 플랫폼을 가장 빠르게 사용할 수 있는 방법은 생성형 AI를 개발하는 엔터프라이즈를 위해 특별히 구축된 서버리스 AI 서비스형 훈련 플랫폼인 NVIDIA DGX 클라우드입니다.
선도적인 스토리지 기술 공급업체와 협력하여 레퍼런스 아키텍처 솔루션 포트폴리오를 NVIDIA DGX SuperPOD에서 이용할 수 있습니다. NVIDIA 파트너 네트워크를 통해 바로 배포 가능한 완전 통합형 제품으로 제공되는 이러한 솔루션을 사용하면 데이터센터 IT 인프라를 더 쉽고 빠르게 설계, 배포 및 관리할 수 있습니다.
NVIDIA DGX SuperPOD는 가장 까다로운 AI 워크로드를 처리할 수 있도록 NVIDIA에서 엄격한 테스트와 인증을 거친 엄선된 공급업체의 고성능 스토리지를 포함하는 완전한 AI 인프라 솔루션입니다.
NVIDIA 엔터프라이즈 서비스는 DGX 인프라에 대한 지원, 교육 및 전문 서비스를 제공합니다. AI 여정의 모든 단계에서 NVIDIA 전문가들이 함께하는 엔터프라이즈 서비스는 프로젝트를 빠르고 성공적으로 시작하고 실행하도록 지원합니다.
NVIDIA 개인정보보호정책
DDN A3I가 탑재된 NVIDIA DGX™ 시스템은 생성형 AI, 자율주행 자동차, 정부, 생명과학, 금융 서비스 등에서 전 세계 고객이 프로덕션 AI를 구현할 수 있는 확실한 방법입니다. NVIDIA 통합 솔루션은 클러스터 성장에 따라 무제한 확장과 향상된 성능을 제공하여 더 빠른 반복을 가능하게 하며, 무엇보다도 비즈니스 혁신을 가속합니다. NVIDIA의 전문 지식을 통해 고객은 경쟁 솔루션보다 훨씬 적은 비용으로 10배 뛰어난 성능을 제공하는 고성능 AI 데이터센터를 가장 빨리 구축할 수 있습니다.
NVIDIA DGX A100 및 SuperPOD로 간소화된 AI 통합 Cambridge-1: NVIDIA 성공 사례 AI 데이터 스토리지 TCO 예측 도구
nvidia@ddn.com
IBM Storage Scale System은 AI 혁신을 주도하고 NVIDIA DGX BasePOD™에서 최대 규모의 DGX SuperPOD™ 설치로 원활하게 확장되는 초고성능 솔루션입니다. 수천 개의 조직에서 GPU 가속화와 AI를 위해 배포하는 IBM Storage Scale System은 가장 까다로운 엔터프라이즈를 위해 99.9999%의 데이터 안정성, 사이버 복원력 및 멀티 프로토콜 데이터 파이프라인을 제공합니다. 소프트웨어 정의 IBM 스토리지는 데이터를 통합하고 계층화하므로, 글로벌 데이터 플랫폼을 통해 조직에 가치를 제공하고 데이터 집약적인 AI 워크로드를 활용 가능한 인사이트로 전환할 수 있습니다.
NVIDIA DGX™ A100 및 DGX SuperPOD를 사용하는 IBM 스토리지 레퍼런스 아키텍처 IBM과 NVIDIA: AI를 위한 가장 빠른 데이터 플랫폼
www.ibm.com/storage/nvidia
VAST 데이터 플랫폼으로 무한한 확장성과 성능을 달성하여 대규모 AI를 더 단순하고 빠르고 쉽게 관리할 수 있습니다. VAST는 세계 최대의 슈퍼컴퓨팅 센터와 선도적인 연구 기관에 배포되고 있습니다. VAST의 고유한 초병렬 아키텍처, 엔터프라이즈급 보안, 사용 편의성 및 혁신적인 데이터 감소 조합은 더 많은 조직이 AI 기반 엔터프라이즈가 되도록 지원합니다. VAST는 NVIDIA® BlueField® 및 GPUDirect® 스토리지를 포함한 NVIDIA 기술과의 긴밀한 통합으로 복잡성을 제거하고 AI 파이프라인을 간소화하여 인사이트를 가속합니다.
NVIDIA DGX SuperPOD 및 VAST를 통한 엔터프라이즈용 AI 대중화 레퍼런스 아키텍처: NVIDIA DGX SuperPOD: VAST 솔루션 개요: NVIDIA DGX SuperPOD용 VAST 데이터 플랫폼
hello@vastdata.com
NetApp과 NVIDIA는 수천 건의 배포를 통해 검증된 안정적이고 입증된 솔루션을 제공하여 AI 인프라의 IT 표준을 수립했습니다. 조직은 업계를 선도하는 NetApp의 통합 데이터 스토리지를 통해 AI 워크로드를 확장하고 최대 5배 더 빠른 인사이트를 얻을 수 있습니다. NetApp의 심층적인 업계 전문 지식과 최적화된 워크플로우는 실제 문제에 대한 맞춤형 솔루션을 보장합니다. NVIDIA와 파트너십을 맺은 NetApp은 NVIDIA DGX SuperPOD™ 및 클라우드로 연결된 올플래시 스토리지 기반의 통합 솔루션을 통해 데이터 파이프라인을 간소화하고 가속하는 고급 AI 솔루션을 제공합니다.
NetApp AI 솔루션 데이터 혁신의 선두 주자인 NetApp 블로그 NetApp 솔루션 문서
ng-AI@NetApp.com
Dell PowerScale은 데이터 처리 및 AI 트레이닝을 가속화하는 AI 지원 데이터 플랫폼을 제공하며, 이제 NVIDIA DGX SuperPOD™에서 검증을 받았습니다. PowerScale의 확장 가능한 아키텍처는 손쉬운 확장을 지원하여 조직이 생성형 AI 모델을 개선하고 강력한 보안 기능을 통해 데이터를 보호할 수 있도록 지원합니다. 고속 이더넷 연결을 통해 PowerScale은 NVIDIA DGX™ 시스템에 대한 데이터 액세스를 가속화하여 전송 시간을 최소화하고 스토리지 처리량을 극대화합니다. Multipath Client Driver 및 NVIDIA® GPUDirect®가 포함된 스마트한 스케일 아웃 기능은 조직이 가속화된 AI 모델 트레이닝 및 추론을 위한 고성능 임계값을 충족하도록 보장합니다.
솔루션 개요: NVIDIA DGX SuperPOD 인증을 받은 세계 최초의 이더넷 기반 스토리지 솔루션 Dell PowerScale 블로그: PowerScale: NVIDIA SuperPOD 인증을 받은 세계 최초의 이더넷 스토리지 E-Book: PowerScale OneFS가 모든 파일 워크로드에 이상적인 10가지 이유
www.dell.com/en-us/dt/forms/contact-us/isg.htm
NVIDIA DGX SuperPOD™ 인증을 받은 WEKApod 데이터 플랫폼 어플라이언스로 데이터 인프라 투자를 최적화하고 AI 혁신의 경계를 넓히세요. NVIDIA DGX™ 인프라 및 네트워킹 기술을 WEKA® 데이터 플랫폼과 결합하여 다양한 AI 워크로드에 향상된 성능을 제공하고 더 신속한 모델 트레이닝 및 배포를 촉진합니다. 고급 스케일 아웃 아키텍처는 정체된 데이터 스토리지 사일로를 동적인 데이터 파이프라인으로 변환하여 GPU를 더 효율적으로 구동함과 동시에 온프레미스와 클라우드에서 AI 워크로드를 원활하고 지속 가능한 방식으로 지원합니다.
WEKA와 NVIDIA 파트너십 데이터시트: WEKApod 데이터 플랫폼 어플라이언스 블로그: 스토리지가 최신 컴퓨팅 및 네트워킹을 따라잡도록 지원하는 새 WEKApod 데이터 플랫폼 어플라이언스
www.weka.io/company/contact-us