世界は進化を続け、デジタル化が進んでおり、対話型 AI が人間と機械のコミュニケーションを支援する機会がますます増えています。対話型 AI は、自動化されたメッセージング や音声対応のアプリケーションを実現するテクノロジです。そのアプリケーションはさまざまな産業で利用されており、カスタマー サービスの効率化を図りながら、全体的な顧客体験を向上しています。
対話型 AI パイプラインは、ゼロから開発するとなると複雑でコストがかかります。本コースでは、NVIDIA Riva フレームワークを利用し、対話型 AI サービスの開発方法を習得します。Riva は 完全な GPU で高速化したソフトウェア スタックを提供し、開発者は、各企業とその顧客に特有の用語を理解できる対話型のエンドツーエンド リアルタイム AI アプリケーションを迅速に開発、デプロイ、運用するのを容易になります。Riva フレームワークには、トレーニング済みの対話型 AI モデル、ツール、および音声、視覚、自然言語理解 (NLU) タスクに最適化されたサービスが含まれています。 開発者は Riva を利用し、インテリジェントなバーチャル アシスタント、バーチャル カスタマー サービス エージェント、リアルタイム文字起こし、マルチユーザー ダイアライゼーション (誰がいつ話しているか推定する技術)、チャットボットなどのための言語ベース AI サービスをカスタマイズできます。
本ワークショップでは、リアルタイム文字起こし機能や自然言語処理 (NLP) 機能を備えた、製品品質の対話型 AI アプリケーションを迅速開発し、デプロイする方法を習得します。NVIDIA Riva の ASR (Automatic Speech Recognition/自動音声認識) モデルと NER (Named Entity Recognition/固有表現抽出) モデルを Web ベースのアプリケーションと統合することで、音声入力を文字に起こし、関連テキストにハイライトを付けます。次に、NVIDIA TAO Toolkit を利用して NER モデルをカスタマイズし、アプリケーション別に異なるターゲットのハイライトを付けます。最後に、Helm Chart や Kubernetes クラスターを利用し、Riva サービスの製品レベルのデプロイメント パフォーマンスとスケーリングの考慮事項について学習します。
学習目標
本ワークショップに参加することで次のことを習得します。
- 対話型 AI アプリケーションのために Riva でトレーニング済みの ASR モデルおよび NER モデルをデプロイし、有効にする方法。
- TLT を利用し、ドメイン固有のモデルを微調整し、デプロイする方法。
- Kubernetes クラスターでスケーリングするために、Helm Chart を利用し、製品レベルの対話型 AI アプリケーションをデプロイする方法。
ワークショップ データシートをダウンロードする (PDF 318 KB)