大規模言語モデル (LLM) を開発から運用に移行するためのツール。
生成 AI 向けのエンドツーエンドの企業向けプラットフォームをご体験ください。
NVIDIA が最適化した基盤モデルを体験する。
NeMo と NVIDIA がホストする API で試作する。
NVIDIA AI Enterprise を利用し、運用環境で実行する。
NVIDIA が開発した業界をリードするオープンソース 生成 AI モデルは高いパフォーマンスと効率性を求めて調整されています。このモデルで試作を始めてください。LLM はその後、NeMo でカスタマイズし、NVIDIA API カタログの NVIDIA NIM を使用してデプロイきます。
自動化されたデータ処理、モデル トレーニングの手法、柔軟なデプロイ オプションを利用し、生成AI モデルの開発を始めてください。
企業データを生成 AI モデルに接続し、最小のレイテンシ、最大のスループット、最大のデータ プライバシーで情報を取得します。
LLM のダイアログ管理を調整し、スマート アプリケーションで精度、適切性、セキュリティを確保します。
この GPU 対応データ キュレーション ツールを使用すると、大規模で高品質なデータセットを用意してから生成 AI モデルを事前トレーニングできます。
この高性能でスケーラブルなマイクロサービスを利用すると、分野固有のユース ケースに合わせて LLM を簡単に調整できます。
クラウドやデータ センターの種類を問わず、さまざまな学術ベンチマークやカスタム ベンチマークでカスタムの LLM と RAG を効率的かつ信頼度の高い方法で評価できます。
NVIDIA AI Enterprise は生成AI をあらゆる企業にもたらすエンドツーエンドのソフトウェア プラットフォームです。生成 AI の基盤モデルに対して最も速く、効率性に優れたランタイムが提供されます。NeMo と NVIDIA NIM が含まれており、セキュリティ、優れた安定性と管理性、サポートで導入を合理化します。
90 日間無料の評価版に申し込むと、生成AI ソリューションとエンタープライズ サポートを今すぐご利用いただけます。
一連の資料、ガイド、マニュアル、使用方法、その他の情報リソースは NeMo ドキュメンテーション ハブ にございます。
NVIDIA On-Demand をご視聴ください。GTC やその他の世界中のテクノロジ カンファレンスで披露された NeMo に関する無料コンテンツを提供しています。
NeMo があれば、大規模言語モデルを構築、カスタマイズ、展開できます。その仕組みをご覧ください。
エンドツーエンド プロジェクトをセットアップする方法を学習し、最新の生成AI テクノロジの認定証を手に入れてください。
NVIDIA NeMo は、場所を問わず、生成AI モデルを構築、カスタマイズ、デプロイするためのエンドツーエンドのクラウドネイティブ フレームワークです。トレーニングと推論のフレームワーク、ガードレール ツールキット、データ キュレーション ツール、学習済みモデルが含まれており、企業は生成 AI を短期間で簡単に、かつ費用対効果に優れた方法で導入できます。開発者は NeMo を、GitHub でオープンソースとして、 NVIDIA NGC カタログでパッケージ化されたコンテナーとして、あるいは NVIDIA AI Enterprise サブスクリプションとして利用できます。
NeMo は NVIDIA AI Enterprise の一部としてご利用いただけます。価格とライセンスの詳細はこちらをご覧ください。
お客様は、 NVIDIA Business-Standard サポートを、NeMo が含まれる NVIDIA AI Enterprise サブスクリプションから入手できます。NVIDIA Business-Standard サポートには、サービス内容合意書 (SLA)、NVIDIA エキスパートへの問い合わせ、オンプレミス デプロイとクラウド デプロイでの長期サポートが含まれています。
NVIDIA AI Enterprise には 、NVIDIA Business-Standard サポートが含まれています。NVIDIA ビジネスクリティカル サポート、テクニカル アカウント マネージャー、トレーニング、プロフェッショナル サービスなど、その他の利用可能なサポートとサービスについては、「NVIDIA Enterprise Support and Service Guide」を参照してください。
NeMo Curator はスケーラブルなデータ キュレーション ツールであり、開発者は LLM を事前にトレーニングする目的で兆単位の多言語データセットを選別できます。Dask、cuDF、cuGraph、Pytorch を利用し、データ ダウンロード、テキスト抽出、クリーニング、フィルタリング、厳密な/ファジーな重複排除、テキスト分類などのデータ キュレーション タスクを数千単位のコンピューティング コアに拡張する API として表現された一連の Python モジュールから構成されています。
オープンソース ツールキットである NeMo Guardrails は、ダイアログ管理を調整します。大規模言語モデルを利用するスマート アプリケーションで精度、適切性、セキュリティを確保します。LLM システムを監視し、組織を守ります。
NeMo Guardrails では、開発者は 3 種類の境界を設定できます。
NeMo Retriever は生成AI マイクロサービスのコレクションであり、企業はカスタム モデルを多様なビジネス データにシームレスに接続し、高い精度で応答できます。NeMo Retriever は、レイテンシが最小、スループットとデータ プライバシーが最大となる世界最高レベルの情報検索を提供し、組織がもっと優れた方法でデータを利用し、リアルタイムでビジネス インサイトを生成することを可能にします。NeMo Retriever は、エンタープライズグレードの RAG (検索拡張生成) 機能で生成AI アプリケーションを強化し、場所を問わず、ビジネス データに接続できます。
NVIDIA AI Enterprise の一部である NVIDIA NIM は、企業全体で生成AI のデプロイを加速するように設計された使いやすいランタイムです。この汎用性の高いマイクロサービスは、オープンソースのコミュニティ モデルから NVIDIA AI Foundation モデルに特注のカスタム AI モデルまで、幅広い AI モデルをサポートします。推論エンジンの堅牢な土台をベースに開発され、大規模な AI 推論をシームレスに支援するように設計されています。クラウド、データ センター、ワークステーションに AI アプリケーションを問題なくデプロイできます。
NeMo Evaluator は、カスタムの LLM と RAG を短時間で、かつ信頼性の高い方法で評価できるように設計された自動マイクロサービスです。人間による評価や「LLMs-as-a-judge」手法など、ベンチマークは多岐にわたり、メトリクスが事前定義されています。API 呼び出しを介し、任意のクラウド プラットフォームやデータ センターで複数の評価ジョブを Kubernetes に同時にデプロイできます。効率的に結果が集計されます。
NeMo Customizer は高性能でスケーラブルなマイクロサービスであり、分野固有のユース ケースに合わせて LLM を簡単に調整できます。
検索拡張生成は、LLM を会社のナレッジ ベースに接続することで最新情報から応答を作成する手法です。NeMo は、Milvus、Llama Index、LangChain など、さまざまなサードパーティ ツールやコミュニティ ツールと連携し、ベクトル データベースから関連する情報の一部を抽出し、それを LLM に送り、自然言語で応答を生成します。
NVIDIA は AI ワークフローを提供しています。これは、NVIDIA AI フレームワークを活用して AI ソリューションを構築するためのクラウドネイティブでパッケージ化された実装例です。学習済みモデル、トレーニングおよび推論のパイプライン、Jupyter Notebook、Helm チャートを備えた AI ワークフローは、AI ソリューションの提供までの道のりを加速します。
次のエンドツーエンド ワークフローで生成AI ソリューションを短期間で構築できます。
NVIDIA LaunchPad は汎用性の高い試験場であり、最新の NVIDIA エンタープライズ ハードウェア/ソフトウェアを広範囲にテストします。この動的なプラットフォームは、短期間の試験、長期間の概念実証 (POC)、そしてマネージド サービスとスタンドアロン ソリューションの両方の開発をスピードアップします。
ユーザーは、そのニーズに合わせて開発環境が作られた状態で AI 導入を開始できます。あるいは、AI にデータ サイエンスから 3D デザインにインフラストラクチャ最適化まで、多様なユース ケースで没入感の高い体験を与えるように作られたハンズオン ラボを膨大なカタログから選択できます。企業は、プライベート ホステッド インフラストラクチャにデプロイされた最新のアクセラレーテッド ハードウェア/ソフトウェア スタックを簡単に利用できます。
NVIDIA AI Enterprise は、データ サイエンス パイプラインを高速化し、生成AI、コンピューター ビジョン、音声 AI など、運用環境グレードの AI アプリケーションの開発とデプロイを合理化するエンドツーエンドのクラウドネイティブ ソフトウェア プラットフォームです。AI の専門家のためにこのクラスで最高の開発ツール、フレームワーク、学習済みモデル、マイクロサービスが含まれ、IT プロフェッショナルがパフォーマンス、安定した API、セキュリティを確保できるよう、信頼性の高い管理機能が含まれます。
NVIDIA API catalog は、運用環境向けの生成AI モデルを継続的に最適化される推論ランタイムを NVIDIA NIM としてパッケージ化して提供します。NVIDIA NIM は、GPU で高速化されるあらゆるシステムに、標準化されたツールを利用して簡単にデプロイできます。
生成 AI 関連の最新情報を NVIDIA から受け取る
NVIDIA からの開発者向けアップデート、お知らせなどをメールでお届けします。
NVIDIA からエンタープライズ ビジネス ソリューションと開発者向けテクノロジ & ツールに関する最新情報やお知らせなどを受け取る。
NVIDIA プライバシー ポリシー