NVIDIA에서 최적화 및 가속화한 API를 통해 커뮤니티에서 구축한 최신 AI 모델을 살펴보고, NVIDIA NIM™ 추론 마이크로서비스로 어디에나 배포해 보세요.
통합
익숙한 API로 빠르게 시작하고 실행하세요.
단 3줄의 코드로 기존 도구 및 애플리케이션에서 NVIDIA API를 사용하세요.
LangChain, LlamaIndex 등 선호하는 거대 언어 모델(LLM) 프로그래밍 프레임워크를 사용하여 작업하고 애플리케이션에 최신 AI 모델을 손쉽게 통합해 보세요.
효과적인 생성형 AI 애플리케이션을 구축하는 데 필요한 모든 것. 각 Blueprint에는 NVIDIA NIM 및 파트너 마이크로서비스, 샘플 코드, 맞춤화 지침과 배포를 위한 Helm 차트가 포함되어 있습니다.
어디에서나 실행
NVIDIA AI Enterprise의 일부인 NVIDIA NIM은 모든 클라우드 또는 데이터센터에서 기반 모델의 배포를 가속화하고 데이터를 안전하게 유지하는 데 도움이 되는 사용이 간편한 마이크로 서비스 세트입니다.
단일 명령으로 모델에 맞는 NIM을 배포하세요. 또한 파인 튜닝된 모델로 NIM을 쉽게 실행할 수 있습니다.
NVIDIA 가속 인프라를 기반으로 최적의 런타임 엔진을 사용하여 NIM을 가동하고 실행하세요.
개발자는 단 몇 줄의 코드로 자체 호스팅 NIM 엔드포인트를 통합할 수 있습니다.
단일 장치에서 데이터 센터 규모에 이르기까지 모든 NVIDIA 가속 인프라에 컨테이너화된 AI 마이크로서비스를 원활하게 배포합니다.
지속적인 보안 업데이트를 비롯한 프로덕션급 런타임으로 실행하고, 엔터프라이즈급 지원을 기반으로 한 안정적인 API를 통해 비즈니스 애플리케이션을 실행할 수 있습니다.
NVIDIA 가속 인프라에서 지연 시간을 줄이고 처리량을 증가시키기 위해 지속적으로 최적화되는 AI 런타임을 바탕으로 프로덕션 환경에서의 모델 실행 운영 비용을 절감합니다.
NVIDIA NIM은 토큰 생성을 극대화하고, 피크 타임 동안의 동시 사용자를 지원하며, 응답성을 향상시키기 위해 최적화된 처리량과 지연 시간을 제공합니다.
구성: Llama3.1-8B- instruct, H100SXM 1개, 토큰 1000개 입력, 토큰 1000개 출력. 동시 요청: 200. 처리량 6,354토큰/초, TTFT 0.4초, ITL: 31ms. 처리량 2,265토큰/초, TTFT 1.1초, ITL: 85ms.
사용자 맞춤화
NVIDIA NeMo™ 는 어디서든 맞춤형 생성형 AI를 개발할 수 있는 엔드투엔드 플랫폼입니다. 여기에는 훈련, 맞춤화 및 검색 증강 생성(RAG), 가드레일링, 데이터 큐레이션, 모델 사전 훈련을 위한 도구가 포함되어 있어, 기업이 쉽고 빠르고 비용 효율적으로 생성형 AI를 도입할 수 있습니다.
사용 사례
NVIDIA API가 업계 사용 사례를 지원하는 방법을 알아보고 선별된 예시를 통해 AI 개발을 시작하세요.
에코시스템
선도적인 파트너와 함께 NVIDIA 에코시스템의 모델, 툴킷, 벡터 데이터베이스,
프레임워크 및 인프라를 통해 AI 애플리케이션을 개발하세요.
리소스
기술 설명서를 읽어 보고 NVIDIA API를 통해 프로토타이핑을 시작하는 방법과 엔터프라이즈 AI 애플리케이션을 구축하는 방법, 그리고 NVIDIA NIM을 통해 자체 인프라를 확장하는 방법을 알아보세요.