ステップ 1: RAG システム実装の最初のステップは、プロジェクトで使用するナレッジ ソースを社内で見つけることです。このデータには、たとえば、メタデータ、テキスト、画像、動画、表、グラフなどがあります。企業固有のデータは前処理され、データ処理サービスによってデータ チャンクに分割されます。次に、チャンクが埋め込みモデルに送られ、各データ チャンクの意味とニュアンスのベクトル (数値表現) が作られます。これらのベクトルと対応するデータチャンクは、後で検索できるようにベクトル データベースに保存されます。
ステップ 2: チャットボットまたは AI アプリケーションのクエリを受け取ると、システムはプロンプトを解析します。データ取り込みに使用されているものと同じ埋め込みモデルを使用し、ユーザー プロンプトの一部を表すベクトルを作成します。ベクトル データベースのセマンティック検索により、企業固有のデータ チャンクの中から最も関連性の高いものが返され、プロンプトのコンテキストに組み込まれます。SQL データベースなどの情報検索システム、その他のビジネスクリティカルなアプリケーション、AI モデルなどからの他のデータ チャンクと追加の LLM 命令も、拡張されたプロンプトが LLM に送信される前に検索されます。LangChain と LlamaIndex は、AI チャットボットと RAG ソリューションの作成を自動化する広く普及しているオープンソース プログラミング フレームワークです。