NVIDIA NeMo™는 거대 언어 모델(LLM), 비전 언어 모델(VLM), 비디오 모델 및 음성 AI를 비롯한 맞춤형 생성형 AI를 어디에서나 개발할 수 있도록 지원하는 엔드투엔드 플랫폼입니다.
NVIDIA AI Foundry의 일부인 NeMo를 사용하여 정확한 데이터 큐레이션, 최첨단 맞춤화, 검색 증강 생성(RAG) 및 가속화된 성능을 통해 엔터프라이즈에 적합한 모델을 제공하세요. NeMo는 엔터프라이즈 데이터 및 도메인별 지식을 갖춘 맞춤형 생성형 AI 구축을 위한 플랫폼 및 서비스입니다.
물리 AI 고도화를 위한 NVIDIA Cosmos 시작하기
물리 AI 시스템 개발을 가속화하기 위해 설계된 NVIDIA Cosmos™ 플랫폼을 시작하는 방법을 알아보세요. 이 플랫폼은 최첨단 생성형 세계 모델, 고급 토크나이저, 안전 가드레일, 그리고 고속 영상 처리 파이프라인으로 구성되어 있습니다.
NVIDIA NeMo가 어떻게 산업 분야의 사용 사례를 지원하고 AI 개발을 촉진하는지 알아보세요.
AI 챗봇
AI 어시스턴트
PDF 데이터 추출
콘텐츠 생성
휴머노이드 로봇
AI 챗봇
조직은 맞춤형 LLM과 검색 증강 생성(RAG)을 사용하여 더욱 스마트한 AI 챗봇을 구축하고자 합니다. RAG를 사용하면 챗봇은 조직의 지식 기반에서 현재 정보를 검색하고 자연 언어로 실시간 응답을 제공함으로써 도메인 특정 질문에 정확하게 답변할 수 있습니다. 이러한 챗봇은 고객 지원 강화, AI 아바타 개인화, 기업 지식 관리, 직원 온보딩 간소화, 지능형 IT 지원 제공, 콘텐츠 제작 등에 사용될 수 있습니다.
기업들은 24시간 내내 수백만 명의 고객과 직원의 쿼리를 효율적으로 처리하기 위해 AI 어시스턴트를 배포하고 있습니다. LLM, RAG, 음성 및 번역 AI를 위한 맞춤형 NVIDIA NIM 마이크로서비스로 구동되는 이러한 AI 팀원은 배경 소음, 음질 저하, 다양한 방언 및 억양이 있는 상황에서도 즉각적이고 정확한 음성 응답을 제공합니다.
매년 수조 개에 달하는 PDF 파일이 생성되고 있으며, 각 파일은 텍스트, 이미지, 차트, 표 등 다양한 콘텐츠 유형으로 채워진 여러 페이지로 구성되어 있을 가능성이 높습니다. 방대한 양의 데이터는 사람이 이를 얼마나 빠르게 읽고 이해하느냐에 따라 활용 가능성이 제한됩니다. 하지만 생성형 AI와 RAG를 사용하면 이러한 미활용 데이터를 활용하여 직원들이 더 효율적으로 일하고 비용을 절감할 수 있도록 도와주는 비즈니스 통찰력을 발견할 수 있습니다.
휴머노이드 로봇은 인간 중심의 도시 및 산업 근무 현장에 재빨리 적응하여 지루하고 반복적이거나 물리적으로 큰 힘이 필요한 작업을 수행하도록 제작되었습니다. 다양한 용도로 활용할 수 있는 장점 덕분에, 이러한 로봇은 공장은 물론 의료 시설 등 여러 분야에서 사람들을 돕고 있으며, 자동화를 통해 노동력 부족 문제 해결에도 기여하고 있습니다.
기업들은 생성형 AI를 활용해 혁신을 이루고, 운영을 최적화하며, 경쟁 우위를 강화하는 방식을 근본적으로 변화시키고 있습니다. NeMo는 다중 모드 모델의 훈련, 맞춤화, 평가 등의 데이터 큐레이션 및 대규모 추론 실행을 위한 엔드투엔드 플랫폼입니다. 텍스트, 이미지, 비디오 및 음성 생성을 지원합니다.
Meta Llama 3.1 405B 모델을 사용하여 특정 도메인에 적합한 맞춤형 합성 데이터를 생성하는 방법을 알아보고, Nemotron-4 340B Reward 모델을 사용하여 이 데이터를 평가하고 NVIDIA NeMo를 통해 인간의 선호도와 일치하게 조정하는 방법을 살펴보세요.
Bria, NVIDIA NeMo와 Picasso를 사용하여 엔터프라이즈를 위한 안정적인 생성형 AI 구축
텔아비브 소재 스타트업인 Bria는 모델 투명성과 공정한 귀속 및 저작권 보호를 강조하는 생성형 AI 서비스를 통해 시각적 생성형 AI 기술을 기업 제품에 통합하는 안정적인 방법을 모색하는 기업을 지원하고 있습니다.
Cohesity
데이터의 강력한 잠재력 활용: NVIDIA 마이크로서비스, Cohesity를 위한 엔터프라이즈급 보안 생성형 AI 제공
NVIDIA NIM과 최적화된 모델을 사용하면 Cohesity DataProtect 고객이 데이터 백업 및 아카이브에 생성형 AI 인텔리전스를 통합할 수 있습니다. 이를 통해 Cohesity와 NVIDIA는 모든 Cohesity DataProtect 고객에게 생성형 AI의 강력한 성능을 제공할 수 있습니다. NIM과 NVIDIA 최적화 모델의 성능을 통해 Cohesity DataProtect 고객은 데이터 백업 및 아카이브에서 데이터 기반 통찰력을 활용하여 새로운 수준의 효율성, 혁신, 그리고 성장을 이룰 수 있습니다.
Google Cloud는 자사의 Next 컨퍼런스에서 NVIDIA H100 Tensor Core GPU 기반의 A3 인스턴스의 출시를 발표했습니다. 양사의 엔지니어링 팀은 NVIDIA NeMo를 A3 인스턴스에 적용하여 더 빠른 훈련과 추론을 실현하기 위해 협업했습니다.
AI 개발자를 위한 대표적인 오픈 플랫폼인 Hugging Face는 NVIDIA와 협력하여 NeMo Curator를 통합하고, 자사의 데이터 필터링 및 중복 제거 라이브러리인 DataTrove의 속도를 높이고 있습니다. Hugging Face의 제품 디렉터 Jeff Boudier는 "NeMo Curator의 GPU 가속 기능에 큰 기대를 걸고 있으며, 이를 DataTrove에 적용하게 될 날을 고대하고 있습니다"라고 전했습니다.
KT
LLM으로 새로운 고객 경험 창출
한국의 선도적인 이동통신 사업자가 NVIDIA DGX SuperPOD 플랫폼과 NeMo 프레임워크로 훈련된 10억 개의 매개변수를 가진 LLM을 구축하여 스마트 스피커와 고객 콜센터를 지원하고 있습니다.
Quantiphi는 NVIDIA NeMo 프레임워크를 활용해 파운데이션 모델을 학습 및 파인튜닝하고, NVIDIA AI Enterprise 소프트웨어 플랫폼으로 대규모 배포를 최적화하는 데 전문성을 갖추고 있습니다. 또한, Quantiphi는 책임 있는 AI 원칙을 철저히 준수합니다.
Weights & Biases는 생성형 AI 사용 사례에 대해 작업하거나 LLM을 사용하는 팀이 모든 프롬프트 엔지니어링 실험을 추적하고 시각화할 수 있도록 지원하여 사용자가 LLM 파이프라인을 디버그하고 최적화할 수 있도록 돕고 LLM에 대한 모니터링 및 관찰 기능을 제공합니다.