AI 팩토리 인프라의 최적 표준.
NVIDIA DGX™ H200으로 비즈니스 혁신과 최적화의 지평을 넓혀보세요. DGX 플랫폼의 일부인 DGX H200은 NVIDIA DGX SuperPOD™ 및 DGX BasePOD™의 기반이 되는 AI 강자로, NVIDIA H200 Tensor 코어 GPU의 획기적인 성능으로 가속화되었습니다.
NVIDIA Base Command™, NVIDIA AI Enterprise 소프트웨어 제품군, NVIDIA DGXperts의 전문가 지원을 포함하는 완전 통합 하드웨어 및 소프트웨어 솔루션인 DGX H200을 기반으로 우수한 AI 센터를 구축하세요.
온프레미스, 동시 위치, 관리형 서비스 제공업체에서의 대여 등 비즈니스에 적합한 다양한 방법으로 DGX H200의 성능을 경험하세요. 또한 DGX-Ready Lifecycle Management를 통해, 조직은 예측 가능한 재무 모델을 확보하여 최첨단 배포를 유지할 수 있습니다.
GPU | 8x NVIDIA H200 Tensor Core GPUs |
GPU Memory | 1,128GB total |
Performance | 32petaFLOPS FP8 |
NVIDIA NVSwitch | 4x |
System Power Usage | ~10.2kW max |
CPU | Dual Intel® Xeon® Platinum 8480C Processors 112 cores total, 2.00GHz (Base), 3.80GHz (max boost) |
System Memory | 2TB |
Networking | 4x OSFP ports serving 8x single-port NVIDIA ConnectX-7 VPI Up to 400Gb/s NVIDIA InfiniBand/Ethernet |
Management Network | 10Gb/s onboard NIC with RJ45 100Gb/s Ethernet optional NIC Host baseboard management controller (BMC) with RJ45 |
Storage | OS: 2x 1.9TB NVMe M.2 Internal storage: 8x 3.84TB NVMe U.2 |
Software | NVIDIA AI Enterprise – Optimized AI software NVIDIA Base Command – Orchestration, scheduling, and cluster management NVIDIA DGX OS / Ubuntu / Red Hat Enterprise Linux / Rocky – Operating system |
System Weight | 287.6lb (130.45kgs) |
System Dimensions | Height: 14.0in (356mm) Width: 19.0in (482.2mm) Length: 35.3in (897.1mm) |
Operating Temperature | 5–30°C (41–86°F) |
조직이 DGX 플랫폼을 어떻게 배포할 수 있는지 알아보세요.
최고의 NVIDIA 소프트웨어, 인프라 및 전문성을 최신 통합 AI 개발 솔루션에 결합합니다.
대규모 생성형 AI 워크로드를 위한 세계적 수준의 성능을 제공하는 DGX 시스템에 대한 문서를 확인하세요.