コミュニティによって構築された最新の AI モデルをご覧ください。NVIDIA によって最適化・高速化されており、NVIDIA NIM™ 推論マイクロサービスを使用することであらゆる場所にデプロイできます。
統合
使い慣れた API ですぐに稼働。
わずか 3 行のコードで既存のツールやアプリケーションから NVIDIA API を利用できます。
LangChain や LlamaIndex など、よく使用する大規模言語モデル (LLM) プログラミングフレームワークで作業し、最新の AI モデルをアプリケーションに簡単に統合できます。
インパクトのある生成 AI アプリケーションを構築するために必要なものがすべて揃います。各設計図には、NVIDIA NIM とパートナーのマイクロサービス、サンプルコード、カスタマイズ手順、およびデプロイ用の Helm チャートが含まれます。
どこでも実行可能
NVIDIA AI Enterprise に含まれる NVIDIA NIM は、あらゆるクラウドまたはデータ センターに基盤モデルを短期間でデプロイできる、使いやすいマイクロサービスのセットであり、常にデータを守ります。
お使いのモデルの NIM を 1 回のコマンドでデプロイします。ファインチューンされたモデルで NIM を実行することも簡単です。
NVIDIA で高速化されたインフラをベースとする最適なランタイム エンジンで NIM を稼働させます。
開発者は数行のコードで自己ホスト型 NIM エンドポイントを統合できます。
コンテナー化された AI マイクロサービスを、単一デバイスからデータ センター規模まで、NVIDIA のアクセラレーテッド インフラストラクチャにシームレスにデプロイします。
継続的なセキュリティ更新を含む本番環境で使用可能なランタイムを活用し、エンタープライズ グレードのサポートで支えられ安定した API でビジネス アプリケーションを実行します。
NVIDIA のアクセラレーテッド インフラストラクチャ上で、低遅延と高スループットのために継続的に最適化された AI ランタイムにより、本番環境でのモデル実行の運用コストを削減します。
NVIDIA NIM は、面倒な設定もなく最適化されたスループットとレイテンシで、トークン生成の最大化、ピーク時の同時ユーザーをサポート、応答性の向上を実現します。
構成: Llama3.1-8B-instruct、1 x H100SXM; 入力 1000 トークン、出力 1000 トークン。同時リクエスト数: 200。NIM ON: FP8。スループット 6,354 トークン/秒、TTFT 0.4 秒、ITL: 31ms。NIM OFF: FP8。スループット 2,265 トークン/秒、TTFT 1.1秒、ITL: 85ms。
カスタマイズ
NVIDIA NeMo™ は、カスタム生成 AI をあらゆる場所で開発するのに役立つエンドツーエンド プラットフォームです。トレーニング、カスタマイズ、検索拡張生成 (RAG)、ガードレール、データキュレーション、モデルのプリトレーニングのためのツールが含まれており、企業は高い費用対効果で、簡単かつ迅速に生成 AI を採用できるようになります。
導入事例
NVIDIA API がどのように各産業のユース ケースを支えているかご覧いただき、厳選されたサンプルを参考にしてお客様の AI 開発をスタートさせてください。
エコシステム
NVIDIA エコシステムのモデル、ツールキット、ベクトル データベース、フレームワーク、 インフラストラクチャで AI アプリケーションを開発し、
業界をリードするパートナーの仲間入りをしてください。
関連情報
技術関連資料を確認して、NVIDIA API を利用したエンタープライズ AI アプリケーションのプロトタイプ制作と構築を開始し、NVIDIA NIM による皆さん自身のインフラストラクチャをスケールしましょう。