概要

AI 推論とは?

AI 推論とは、学習済みの AI モデルをデプロイして新しいデータを生成し、AI が結果を提供するよう導くプロセスです。これにより、あらゆる業界でイノベーションを推進します。AI モデルは、規模、複雑さ、多様性の点で急速に拡大し、可能性の限界を押し広げています。企業が AI 推論をうまく活用するためには、エンドツーエンドの AI ライフサイクルをサポートするフルスタックのアプローチと、各チームの目標達成を可能にするツールが必要です。

本番環境に生成 AI をデプロイ

本番環境に生成 AI をデプロイしたり規模を拡大したりする場合に、考慮しなければならない重要なポイントについて、AI 推論の重要な役割を含めて詳しくご覧ください。

利点

推論を高速化するための NVIDIA AI の利点について知る

デプロイの標準化

あらゆるアプリケーション、AI フレームワーク、モデル アーキテクチャ、プラットフォーム間で、モデルのデプロイを標準化します。

統合と拡張を簡単に

パブリック クラウド、オンプレミス データ センター、エッジで、ツールやプラットフォームと簡単に統合できます。

コスト削減

AI インフラストラクチャから優れたスループットと稼働率を実現し、コストを削減します。

高性能

AI の主要な業界ベンチマークである MLPerf で複数の記録を絶えず打ち立てているプラットフォームで、業界をリードするパフォーマンスを体験できます。

ソフトウェア

AI 推論ソフトウェアの詳細を見る

NVIDIA AI Enterprise は、NVIDIA NIM™NVIDIA Triton™ Inference ServerNVIDIA® TensorRT™、およびその他のツールで構成されており、AI アプリケーションの構築、共有、デプロイを簡素化します。エンタープライズ グレードのサポート、安定性、管理性、セキュリティにより、企業は計画外のダウンタイムを排除しながら、価値を生み出すまでにかかる時間を短縮できます。

生成 AI 推論への最短の道

NVIDIA NIM は、クラウド、データ センター、ワークステーションにまたがって、高性能な AI モデル推論を安全かつ確実にデプロイするように設計された、使いやすいマイクロサービスです。

すべての AI ワークロードに対応する統合型の推論

NVIDIA Triton Inference Server は、オープンソースの推論サービング ソフトウェアです。企業がカスタマイズされた AI モデルのサービング インフラを統合し、新たな AI モデルを本番環境に展開する時間を短縮するのに役立ち、AI 推論と予測能力を高めます。

推論とランタイムを最適化する SDK

NVIDIA TensorRT には、推論ランタイムとモデル最適化が含まれており、本番環境アプリケーションに低遅延と高スループットを提供します。TensorRT エコシステムには、TensorRT、TensorRT-LLM、TensorRT Model Optimizer、TensorRT Cloud が含まれます。

ハードウェア

AI 推論インフラストラクチャの詳細を見る

NVIDIA で高速化したインフラストラクチャ向けに最適化された NVIDIA AI 推論ソフトウェアを使用すれば、比類のない AI パフォーマンスが手に入ります。NVIDIA Blackwell、H200、L40S、NVIDIA RTX™ テクノロジは、データ センター、クラウド、ワークステーション全体にわたって AI 推論ワークロードに優れたスピードと効率を提供します。

NVIDIA Blackwell プラットフォーム

NVIDIA Blackwell アーキテクチャは、生成 AI とアクセラレーテッド コンピューティングの次の発展を特徴づけるものであり、比類のないパフォーマンス、効率性、拡張性を備えています。 Blackwell は、データ処理、電子設計自動化、コンピュータ支援エンジニアリング、量子コンピューティングにおいて画期的な進歩をもたらす 6 つの変革的なテクノロジを備えています。

NVIDIA H200 Tensor コア GPU

NVIDIA H200 Tensor コア GPU は、市場を一変させるパフォーマンスとメモリ機能で生成 AI と高パフォーマンス コンピューティング (HPC) ワークロードを強化します。H200 は HBM3e を搭載した初の GPU であり、この大容量かつ高速なメモリが、HPC ワークロードで科学計算処理を進化させる一方で、生成 AI と大規模言語モデル (LLM) を大幅に高速化します。

NVIDIA L40S GPU

NVIDIA の推論サービング ソフトウェアのフルスタックと L40S GPU を組み合わせることで、推論用にトレーニングされたモデルに適した強力なプラットフォームが実現します。構造化されたスパース性と幅広い精度をサポートする L40S は、NVIDIA A100 Tensor コア GPU の最大 1.7 倍の推論性能を発揮します。

NVIDIA RTX テクノロジ

NVIDIA RTX テクノロジは、ビジュアル コンピューティングに AI をもたらし、タスクを自動化して計算負荷の高いプロセスを最適化することで創造性を高速化します。CUDA® コアの強力な機能により、RTX はリアルタイムのレンダリング、AI、グラフィックス、コンピューティング性能を向上させます。

ユース ケース

AI 推論の活用法

NVIDIA AI がさまざまな業界でどのように活用されているのかをご覧ください。厳選された使用事例を参考にして AI 開発をぜひ開始してください。

デジタル ヒューマン

NVIDIA ACE は、開発者がデジタル ヒューマンに命を吹き込むのに役立つテクノロジーのスートです。その中の複数の ACE マイクロサービスは NVIDIA NIM であり、NVIDIA RTX AI PC や 100 カ国に低遅延のデジタル ヒューマン処理を提供する GPU のグローバル ネットワークである NVIDIA Graphics Delivery Network (GDN) で動作するように最適化された、デプロイが容易な高パフォーマンス マイクロサービスです。 

コンテンツの生成

生成 AI を使用して、企業のその分野に関する専門知識と独自の IP に基づいて、関連性の高い、カスタマイズされた正確なコンテンツを生成することができます。

生体分子の生成

生体分子生成モデルと GPU の計算能力により、化学分野を効率的に探索し、特定の創薬標的や特性に合わせた小分子の多様なセットを迅速に生成します。

不正検知検知

金融機関は、なりすまし犯罪、口座の乗っ取り、マネーロンダリングなどの高度な不正行為を検知して防止する必要があります。AI 対応のアプリケーションは、取引詐欺の検出における誤検知を低減し、顧客確認 (KYC) 要件における本人確認の精度を向上させ、マネーロンダリング (AML) 対策をより効果的に行い、顧客体験と企業の経営状態の両方を改善します。

AI チャットボット

企業は、検索拡張生成 (RAG) を使用して、より高性能な AI チャットボットを構築しようとしています。RAG を使用することで、チャットボットは企業のナレッジ ベースから情報を取得し、自然言語でリアルタイムの応答を提供することで、ドメイン固有の質問に正確に回答することができます。こうしたチャットボットは、顧客サポートの強化、AI アバターのパーソナライズ、企業知識の管理、業務の簡略化、高度な IT サポートの提供、コンテンツの作成などに使用できます。

セキュリティの脆弱性分析

共通脆弱性識別子 (CVE) のデータベースに報告されるセキュリティ上の欠陥件数が 2022 年に過去最高を記録するなどセキュリティ問題が増大する中、ソフトウェアのセキュリティ問題へのパッチ適用は、ますます困難になっています。生成 AI を使用することで、セキュリティ チームの負担を軽減しながら脆弱性に対する防御を改善することができます。

お客様の事例

業界のリーダーが AI 推論でイノベーションを推進している方法

Amdocs

生成 AI の性能を高速化し、コストを削減

Amdocs が amAIz を構築するまでの過程をご覧ください、amAIz は通信業者向けのドメイン固有の生成 AI プラットフォームであり、NVIDIA DGX™ Cloud と NVIDIA NIM 推論マイクロサービスを使用することで、遅延を改善し、正確性を大きく向上させ、コストを削減します。

Snapchat

衣料品購買を AI で強化

Snapchat が、Triton Inference Server を使用することで、どのようにして衣料品のショッピング体験と絵文字を認識する光学文字認識を強化し、規模の拡大、コスト削減、本番環境までの時間短縮を実現したのかをご覧ください。

Amazon

顧客満足度の向上

Amazon が TensorRT を使用することで、どのようにして推論を 5 倍に高速化し顧客満足度を改善したのかをご覧ください。

関連情報

AI 推論リソースの最新情報

NVIDIA LaunchPad で推論を始める

現在進行中の AI プロジェクトはありますか?皆さんの AI ソリューションをテストし、プロトタイピングすることができる実践的な経験にぜひお申し込みください。

生成 AI と LLM ラーニング パスを見る

当社の包括的なラーニング パスを使用して、生成 AI や大規模言語モデルの技術スキルを向上させましょう。

NVIDIA LaunchPad での生成 AI 推論を始める

NVIDIA NIM 推論マイクロサービスと AI モデルに今すぐ無料で短期間アクセスし、生成 AI への取り組みを迅速化しませんか。

生成 AI を NVIDIA NIM で本番環境にデプロイ

NVIDIA NIM は生成 AI の可能性を引き出します。この動画では、NVIDIA NIM マイクロサービスがどのようにして、AI のデプロイを本番環境に対応したパワフルなソリューションへと変貌させるのかについて詳しく確認します。

Triton が推論をシンプルにする 5 つの理由

Triton Inference Server は、本番環境への大規模な AI モデルの展開を簡素化します。オープンソースの推論サービス ソフトウェアを使用することで、チームはあらゆる GPU または CPU ベースのインフラストラクチャ上でも、ローカル ストレージまたはクラウド プラットフォームの任意のフレームワークからトレーニング済みの AI モデルをデプロイできます。

UneeQ

NVIDIA が NIM を発表

NVIDIA の NIM 技術で何ができるのか疑問に思ったことはありませんか?驚異的なデジタル ヒューマンやロボットの世界について深く掘り下げながら、NIM で何が可能なのか詳しく見ていきます。

次のステップ

さっそく始めませんか?

最新のドキュメント、チュートリアル、技術ブログなど、AI アプリケーション開発を始めるために必要な情報をすべてご覧ください。

お問い合わせ

NVIDIA AI Enterprise のセキュリティ、API の安定性、サポートを利用した、パイロットから本番環境への移行については、NVIDIA 製品スペシャリストにご相談ください。

NVIDIA AI の最新情報

NVIDIA から最新ニュース、アップデートなどの情報をお送りします。

次のステップ

さっそく始めませんか?

最新のドキュメント、チュートリアル、技術ブログなど、AI アプリケーション開発を始めるために必要な情報をすべてご覧ください。

お問い合わせ

NVIDIA AI Enterprise のセキュリティ、API の安定性、サポートを利用した、パイロットから本番環境への移行については、NVIDIA 製品スペシャリストにご相談ください。

NVIDIA AI の最新情報

NVIDIA から最新ニュース、アップデートなどの情報をお送りします。