ラスベガス - AWS re:Invent – 2023 年 11 月 28 日 – NVIDIA は本日、企業がカスタム大規模言語モデルを企業データに接続し、AI アプリケーションに高精度の応答ができるようにする生成 AI マイクロサービスを発表しました。
NVIDIA NeMo™ Retriever は、生成 AI モデルの構築、カスタマイズ、展開のためのフレームワークとツールの NVIDIA NeMo ファミリーの新しい製品です。エンタープライズグレードのRetrieval-Augmented Generation(RAG)機能で生成 AI アプリケーションの強化を支援します。
セマンティック検索マイクロサービスとして、NeMo Retriever は、NVIDIA が最適化したアルゴリズムを通じて、生成 AI アプリケーションがより正確な応答ができるよう支援します。このマイクロサービスを使用する開発者は、クラウドやデータセンターのどこに存在しても、AI アプリケーションをビジネスデータに接続することができます。これは、AIファウンドリに NVIDIA に最適化された RAG 機能を追加し、AWS Marketplace で入手可能な NVIDIA AI Enterprise ソフトウェアプラットフォームの一部です。
Cadence、Dropbox、SAP、ServiceNow は、NVIDIA と協業し、カスタム生成 AI アプリケーションやサービスに量産可能な RAG 機能を組み込んでいる先駆者です。
NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は次のように述べています。「RAG 機能を備えた生成 AI アプリケーションは、企業の次のキラーアプリです。NVIDIA NeMo Retriever を使用することで、開発者はカスタマイズされた生成 AI チャットボット、コパイロット、要約ツールを作成することができます。そして、ビジネスデータにアクセスし、正確で価値のある生成 AI インテリジェンスで生産性を変革することができます」
グローバルリーダー、NeMo Retriever で LLMの精度を強化
電子システム設計のリーダーである Cadence は、ハイパースケール コンピューティング、5G通信、自動車、モバイル、航空宇宙、コンシューマー、ヘルスケア市場などの企業にサービスを提供しています。同社はNVIDIA と協力し、産業用電子機器設計における生成 AI アプリケーションのための RAG 機能を開発しています。
Cadence 社長 兼 CEO である Anirudh Devgan 氏は次のように述べています。「生成 AI は、設計プロセスの初期段階で潜在的な欠陥を発見するツールなど、顧客のニーズに対応する革新的なアプローチを導入しています。当社の研究者は NVIDIA と協力して NeMo Retriever を使用することで、問題を明らかにする生成 AI アプリケーションの精度と関連性をさらに高め、顧客が高品質な製品をより早く市場に投入できるよう支援しています」
正確な生成 AI アプリケーションのためのコードを解読する
オープンソースの RAG ツールキットとは異なり、NeMo Retriever は、商業的に実行可能なモデル、API の安定性、セキュリティパッチ、企業サポートを備えた、生産可能な生成 AI をサポートしています。
NVIDIA に最適化されたアルゴリズムは、Retriever のエンベッディング モデルにおいて最高の精度を実現します。最適化されたエンベッディング モデルは単語間の関係を捉え、LLM によるテキストデータの処理と分析を可能にします。
NeMo Retriever を使用することで、企業は LLM を複数のデータソースやナレッジベースに接続することができます。これにより、ユーザーは簡単にデータを操作したり、簡単な対話形式のプロンプトを使って正確で最新の回答を得ることができます。Retriever を搭載したアプリケーションを使用する企業は、テキスト、PDF、画像、ビデオなど、さまざまなデータモダリティの情報に安全にアクセスすることができます。
企業は NeMo Retriever を使用することで、少ないトレーニングでより正確な結果を得ることができ、市場投入までの時間を短縮し、生成 AI アプリケーションの開発におけるエネルギー効率をサポートします。
NVIDIA AI Enterpriseで信頼性が高く、シンプルでセキュアな展開
企業は NeMo Retriever を搭載したアプリケーションを展開し、事実上あらゆるデータセンターやクラウド上の NVIDIA アクセラーテッド コンピューティング上で推論を実行することができます。NVIDIA AI Enterprise は、NVIDIA NeMo、NVIDIA Triton Inference Server™、NVIDIA TensorRT™、NVIDIA TensorRT-LLM、およびその他の NVIDIA AI ソフトウェアによる、加速された高性能推論をサポートします。
推論性能を最大化するために、開発者は TensorRT-LLMソフトウェアとNVIDIA GH200 Grace Hopper Superchip 上でモデルを実行することができます。
提供時期
開発者は、NVIDIA NeMo Retriever への早期アクセスを申し込みが可能です。