세상이 계속 진화하고 디지털화되면서, 대화형 AI는 인간과 기계 간의 소통을 용이하게 만드는 데 점점 더 많이 사용되고 있습니다. 대화형 AI는 자동화된 메시징 및 음성 지원 애플리케이션의 기반이 되는 기술이며, 그러한 애플리케이션은 다양한 산업에서 전반적인 고객 경험을 개선하는 동시에 고객 서비스 효율성을 향상하는 데 사용됩니다.
대화형 AI 파이프라인은 처음부터 개발하기에는 복잡하고 비용이 많이 듭니다. 이 과정에서는 NVIDIA Riva 프레임워크를 사용하여 대화형 AI 서비스를 구축하는 방법을 알아봅니다. Riva는 완전한 GPU 가속 소프트웨어 스택을 제공하므로, 개발자는 각 기업과 고객에게 고유한 용어를 이해할 수 있는 실시간 엔드 투 엔드 대화형 AI 애플리케이션을 빠르게 생성, 배포 및 실행할 수 있습니다. Riva 프레임워크에는 음성, 비전 및 자연어 이해(NLU) 작업을 위한 사전 훈련된 대화형 AI 모델, 도구 및 최적화된 서비스가 포함되어 있습니다. 개발자는 Riva를 통해 지능형 가상 어시스턴트, 가상 고객 서비스 상담원, 실시간 전사, 다중 화자 구분, 챗봇 등을 위한 맞춤형 언어 기반 AI 서비스를 만들 수 있습니다.
이 워크숍에서는 실시간 전사 및 자연어 처리(NLP) 기능을 통해 프로덕션급의 대화형 AI 애플리케이션을 빠르게 구축하고 배포하는 방법을 알아봅니다. NVIDIA Riva 자동 음성 인식(ASR) 및 명명된 엔터티 인식(NER) 모델을 웹 기반 애플리케이션과 통합하여, 관련 텍스트가 하이라이트되어 있는 오디오 입력의 전사를 생성해볼 것입니다. 그런 다음 NVIDIA 전이 학습 툴킷(TLT)을 통해 NER 모델을 맞춤화하여 애플리케이션에 대해 여러 타겟 하이라이트를 제공할 것입니다. 마지막으로 Helm 차트 및 Kubernetes 클러스터를 통해 Riva 서비스의 프로덕션급 배포 성능 및 확장 고려 사항을 살펴볼 것입니다.
학습 목표
이 워크숍에 참여하면 다음을 알아볼 수 있습니다.
- 대화형 AI 애플리케이션을 위해 Riva에서 사전 훈련된 ASR 및 NER 모델을 배포하고 활성화하는 방법.
- TLT를 사용하여 도메인별 모델을 미세 조정하고 배포하는 방법.
- Kubernetes 클러스터에서 확장을 위한 Helm 차트를 통해 프로덕션급 대화형 AI 애플리케이션을 배포하는 방법.
워크숍 데이터시트 다운로드하기(PDF 318KB)