고성능 컴퓨팅, 데이터 사이언스, 생물 정보학 및 딥 러닝의 컴퓨팅 집약적인 CUDA® C++ 애플리케이션을 멀티 GPU로 가속화하고 이에 따라 처리량을 늘리고 총 런타임을 줄일 수 있습니다. 컴퓨팅과 메모리 전송의 동시 사용과 합쳐지면 메모리 전송 비용을 높이지 않고도 멀티 GPU로 컴퓨팅을 확장할 수 있습니다. 멀티 GPU 서버를 보유한 조직의 경우 클라우드에서든 NVIDIA DGX™ 시스템에서든 이러한 기술을 통해 GPU 가속 애플리케이션에서 최고 성능을 발휘할 수 있습니다. 또한 여러 노드에 걸쳐 애플리케이션을 확장하기 전에 이러한 단일 노드 멀티 GPU 기술을 구현하는 것이 중요합니다.
이 워크숍은 단일 노드에서 사용 가능한 모든 GPU를 효율적이고 올바르게 활용하는 CUDA C++ 애플리케이션을 작성하여 애플리케이션의 성능을 크게 개선하고 멀티 GPU를 통해 시스템을 가장 비용 효율적으로 활용하는 방법을 설명합니다.
학습 목표
이 워크숍에 참여함으로써 다음을 수행할 수 있게 됩니다.
- 동시 CUDA 스트림을 사용하여 메모리 전송을 GPU 컴퓨팅과 중복 사용
- 단일 노드에서 사용 가능한 모든 GPU를 활용하여 사용 가능한 모든 GPU로 워크로드 확장
- 복사 및 컴퓨팅 오버랩 기능을 멀티 GPU와 결합
- NVIDIA Nsight™ Systems Visual Profiler 타임라인을 중심으로 워크샵에서 다루는 기술의 개선 기회 및 영향 관찰
워크숍 데이터시트 다운로드 (PDF 243 KB)