더욱 빠르고 정확한 AI 추론

AI 지원 애플리케이션 및 서비스를 이용해 획기적인 성능을 이끌어내세요.

추론을 통해 AI는 결과를 제공하고 모든 산업 전반에 걸쳐 혁신을 촉진할 수 있습니다. AI 모델은 크기, 복잡성, 다양성이 빠르게 확장되어 가능한 것의 경계를 넓히고 있습니다. AI 추론을 성공적으로 사용하려면 조직과 MLOps 엔지니어에게 엔드투엔드 AI 수명 주기를 지원하는 풀 스택 접근 방식과 팀이 목표를 달성할 수 있도록 지원하는 도구가 필요합니다.


NVIDIA AI 추론 플랫폼으로 차세대 AI 애플리케이션 배포

NVIDIA는 클라우드, 데이터 센터, 네트워크 엣지 및 네트워크 엣지에서 차세대 AI 추론을 지원하는 데 중요한 성능, 효율성 및 응답성을 제공하는 엔드투엔드 제품, 인프라 및 서비스 스택을 제공합니다. 임베디드 장치에서. 다양한 수준의 AI 전문 지식과 경험을 갖춘 MLOps 엔지니어, 데이터 사이언티스트, 애플리케이션 개발자 및 소프트웨어 인프라 엔지니어를 위해 설계되었습니다.

NVIDIA의 풀 스택 아키텍처 접근 방식은 AI 지원 애플리케이션이 최적의 성능, 더 적은 수의 서버, 더 적은 전력으로 배포되도록 보장하여 훨씬 더 낮은 비용으로 더 빠른 통찰력을 제공합니다.

엔터프라이즈급 추론 플랫폼인 NVIDIA AI Enterprise에는 동급 최고의 추론 소프트웨어, 안정적인 관리, 보안, API 안정성이 포함되어 있어 성능과 고가용성을 보장합니다.

이점 살펴보기

배포 표준화

애플리케이션, AI 프레임워크, 모델 아키텍처 및 플랫폼 전반에 걸쳐 모델 배포를 표준화합니다.

쉬운 통합

퍼블릭 클라우드, 온프레미스 데이터 센터, 엣지의 도구 및 플랫폼과 쉽게 통합됩니다.

비용 절감

AI 인프라에서 높은 처리량과 활용도를 달성하여 비용을 절감합니다.

원활한 확장

애플리케이션 요구에 따라 추론을 원활하게 확장합니다.

고성능

AI에 대한 업계 최고의 벤치마크인 MLPerf에서 지속적으로 수많은 기록을 수립한 플랫폼으로 업계 최고의 성능을 경험하세요.

엔드투엔드 NVIDIA AI 추론 플랫폼

NVIDIA AI 추론 소프트웨어

NVIDIA AI EnterpriseNVIDIA NIM, NVIDIA Triton™ Inference Server, NVIDIA® TensorRT™ 및 AI 애플리케이션 구축, 공유, 배포를 간소화하는 기타 도구로 구성됩니다. 기업들은 엔터프라이즈급 지원, 안정성, 관리 용이성, 보안을 통해 계획되지 않은 가동 중지 시간을 제거하면서 가치 창출 시간을 단축할 수 있습니다.

생성형 AI 추론을 향한 가장 빠른 길

NVIDIA NIM은 클라우드, 데이터센터, 워크스테이션 전반에서 생성형 AI의 배포를 가속화하도록 설계된 사용하기 쉬운 소프트웨어입니다.

모든 AI 워크로드를 위한 통합 추론 서버

NVIDIA Triton Inference Server는 기업이 맞춤형 AI 모델 제공 인프라를 통합하고, 프로덕션 환경에서 새로운 AI 모델을 배포하는 데 필요한 시간을 단축하며, AI 추론 및 예측 용량을 늘리는 데 도움을 주는 오픈 소스 추론 제공 소프트웨어입니다.

추론 및 런타임 최적화를 위한 SDK

NVIDIA TensorRT는 고성능 추론을 위해 짧은 레이턴시와 높은 처리량을 제공합니다. 여기에는 추론을 위해 대규모 언어 모델(LLM)을 정의, 최적화, 실행하기 위한 오픈 소스 라이브러리 및 Python API인 NVIDIA TensorRT-LLM과 모델 및 대상 GPU에 최적화된 TensorRT 엔진을 생성하는 웹 서비스인 NVIDIA TensorRT Cloud가 포함됩니다.

NVIDIA AI 추론 인프라

NVIDIA H100 Tensor 코어 GPU

H100은 NVIDIA의 가속 컴퓨팅 데이터센터 플랫폼에서 또 한 번의 엄청난 도약을 제공하여 소규모 엔터프라이즈 워크로드부터 모든 데이터센터의 엑사스케일 HPC 및 조 단위의 매개 변수를 자랑하는 AI에 이르는 다양한 워크로드를 안전하게 가속화합니다.

NVIDIA L40S GPU

NVIDIA의 전체 추론 제공 소프트웨어 스택과 L40S GPU를 결합하면 추론에 사용할 수 있는 훈련 모델을 위한 강력한 플랫폼을 제공합니다. 구조적 희소성과 광범위한 정밀도를 지원하는 L40S는 NVIDIA A100 Tensor 코어 GPU 대비 최대 1.7배의 추론 성능을 발휘합니다.

NVIDIA L4 GPU

L4는 영상, AI, 비주얼 컴퓨팅, 그래픽, 가상화 등을 위한 에너지 효율적인 범용 가속화를 비용 효율적으로 제공합니다. GPU는 CPU 기반 솔루션보다 120배 더 높은 AI 영상 성능을 제공하여 엔터프라이즈가 콘텐츠를 개인화하고 검색 관련성을 개선하는 등의 실시간 인사이트를 얻을 수 있습니다.

산업 전반의 AI 추론 살펴보기

추가 리소스

최신 뉴스 받기

최신 추론 업데이트 및 공지사항을 읽어보세요.

전문가의 의견을 들어보세요

추론에 대한 GTC 세션을 살펴보고 Triton 추론 서버, Triton 관리 서비스 및 TensorRT를 시작하세요.

기술 블로그 살펴보기

추론을 시작하는 방법에 대한 기술 안내를 읽어보세요.

Ebook을 확인해 보세요

AI 추론의 최신 환경, 기업의 생산 사용 사례, 실제 과제와 솔루션을 알아보세요.

NVIDIA의 최신 AI 추론 소식을 받아보세요.