Microsoft、Snap、NTTコミュニケーションズが NVIDIA AI を導入、NVIDIA Riva と Merlin の一般提供を開始、 NVIDIA AI Enterprise 2.0 がすべての主要なデータセンターとクラウド プラットフォームをサポート、NVIDIA AI Accelerated Program が始動
カリフォルニア州サンタクララ—GTC— 2022年3月22日—NVIDIA は本日、NVIDIA AI プラットフォームにおいて、音声、レコメンダー システム、ハイパースケール推論などのワークロードを高度化するソフトウェア群の大幅なアップデートを発表しました。これらは、Microsoft、 Snap、そしてNTTコミュニケーションズなどのグローバルの業界リーダーによってそれぞれ採用されています。
また、NVIDIA のソフトウェアおよびソリューション パートナーによって開発された AI アプリケーションのパフォーマンスと信頼性を確保するのに役立つ NVIDIA® AI Accelerated Program を発表しました。このプログラムは、実績のある AI で高速化された幅広いアプリケーションの可視性を高め、企業の顧客が NVIDIA AI プラットフォームに自信を持って展開することができます。今回の発表では、Adobe、Red Hat、VMware をはじめとする 100 を超えるパートナーがプログラムに参加しています。
NVIDIA の創業者/CEO ジェンスン フアン (Jensen Huang) は次のように述べています。「NVIDIA AI は、AI 研究者やデータ サイエンティストから、データや機械学習の運用チームまで、世界の AI コミュニティのソフトウェア ツールボックスです。GTC 2022 のリリースは大規模であり、より魅力的なチャットボットやバーチャル アシスタントを作成する場合でも、消費者がより良い購入決定を行うためのスマートなレコメンダー システムを構築する場合でも、最大規模の AI サービスを調整する場合でも、NVIDIA AI があなたの強力な味方になります」
開発者が無料で利用できる NVIDIA AI には、音声 AI の NVIDIA Riva とスマート レコメンデーションの NVIDIA Merlin™ が含まれています。どちらも現在一般提供されています。 NVIDIA Triton、NeMo、Maxine、TAO Toolkit などのツールを含む、ソフトウェア スイート全体もアップデートされました。
さらに、NVIDIA AI Enterprise 2.0 は、ベアメタル サーバー、仮想化されたインフラストラクチャ、CPU のみのシステムなど、すべての主要なデータセンターとクラウド プラットフォームで最適化、認定、サポートされるようになりました。 スイートも Red Hat OpenShift および VMware vSphere with Tanzu でのサポートが開始されました。
業界をリードする AI アプリケーションを構築するためのソフトウェア ツール
NVIDIA AI は、複雑なトレーニングと機械学習のワークロードを強化するために、複数のノードにわたる AI ワークロードの迅速な展開、管理、拡張を可能にする主要な SDK とツールで構成されています。 これらには以下が含まれます:
- NVIDIA Triton™ - NVIDIA Triton は、汎用性の高いオープンソースのハイパースケール モデル推論ソリューションです。 最新リリースには、3つの主要なアップデートが含まれます。最適化されたモデルの展開を加速するモデル ナビゲーター、Kubernetes での効率的なスケーリングのための管理サービス、およびすべてのアプリケーションで高速で最適化されたスケーラブルなAIの説明性を備えたツリーベースのモデルでの推論を可能にするフォレスト推論ライブラリです。
- NVIDIA Riva 2.0 -最先端の認識率を誇る事前トレーニング済みのモデルを含む世界クラスの音声 AI SDK により、開発者は一般的なサービスの 2 倍の精度で業界向けのリアルタイム音声AIアプリケーションをカスタマイズできます。 Riva 2.0 には、7 つの言語での音声認識、男女両方の音声に対応した人間のようなディープラーニングベースのテキスト読み上げ、および NVIDIA TAO Toolkit を使用したカスタム チューニングが含まれています。 NVIDIA は、NVIDIA のエンタープライズ サポートを含む有料サービスである NVIDIA Riva Enterprise も発表しました。
- NVIDIA NeMo Megatron 0.9 -大規模言語モデル (LLM) をトレーニングするためのフレームワークである NeMo Megatron により、研究者や企業は、対話型 AI、レコメンダー、ゲノミクスなどのアプリケーションのために、あらゆるモデルを数兆のパラメーターに拡張してトレーニングできます。最新バージョンには、エンドツーエンドの開発とトレーニング時間を短縮し、クラウドでのトレーニングのサポートを追加する新しい最適化とレシピが含まれています。NVIDIA アクセラレーテッド コンピューティングでの LLM の初期のユーザーには、JD.com、 AI Sweden、 Naver およびフロリダ大学が含まれます。
- NVIDIA Merlin 1.0 -大規模で高性能なレコメンダーを構築するための、高速化されたエンドツーエンドのレコメンダーAIフレームワークである Merlin に、2 つの新しいライブラリ、Merlin Models と Merlin Systems が追加されました。 これらにより、データ サイエンティストと機械学習エンジニアはユースケースに最適な機能とモデルを決定し、マイクロサービスとしてレコメンダー パイプラインを展開できます。
- NVIDIA Maxine - AI によるリアルタイム コミュニケーションを刷新するオーディオとビデオの品質を強化する SDK である Maxine に、音響エコー キャンセルとオーディオ超解像が追加されました。この 2 つの新機能により、オーディオ品質が向上し、よりクリアなコミュニケーション体験が実現します。
NVIDIA AI 導入実績
業界のリーディング カンパニーが NVIDIA AI を活用して、コスト効率を改善し、より魅力的なカスタマー エクスペリエンスを作成し、AI アプリケーション機能を最適化しています。
Snap の対話型 AI の責任者であるアラン ベッカー (Alan Bekker) は次のように述べています。「Snapchatでは、私たちのコミュニティは 1 日に 60 億回以上レンズを使用しています。Snap は NVIDIA Riva を使用して AI ベースの音声機能を最適化し、Lens Studio のクリエイターに提供して、新世代の魅力的な AR エクスペリエンスを構築しています」
Microsoft のテクニカル フェローで Azure AI CTO のシュエドン フアン (Xuedong Huang) は次のように話しています。「Microsoft Azure Cognitive Service である Translator のドキュメント翻訳機能は、原文のフォーマットや構造をそのままにドキュメントを翻訳することで、ビジネスと顧客の効率的なやり取りを可能にします。NVIDIA Triton を使用することで、最新の Z-Code モデルを展開することができ、低遅延で大幅に改善されたドキュメント翻訳品質を実現し、比類のない翻訳サービスをユーザーに提供しています」
NVIDIA AI Enterprise はデータセンターとクラウド全体でコンテナー化された AI をサポート
エンドツーエンドのクラウドネイティブなAIおよびデータ分析ツールとフレームワークのスイートである NVIDIA AI Enterprise 2.0 ソフトウェア スイートは、業界向けの AI の開発と展開を加速します。 業界をリードするエンタープライズ Kubernetes プラットフォームである Red Hat OpenShift の認定により、お客様はコンテナー化された機械学習ツールを使用して、ベアメタルまたは VMware vSphere with Tanzu による仮想化されたシステム上で、モデルをより簡単に構築、拡張、共有できるようになります。
RedHat のパートナー エコシステム サクセス担当シニア バイスプレジデントであるステファニー シラス (Stefanie Chiras) は次のように述べています。「NVIDIA AI Enterprise 向けの Red Hat OpenShift の認定と、NVIDIA LaunchPad で OpenShift が利用可能になることで、AI 開発用のトップ ツールが一貫したハイブリッドクラウド基盤に統合されます。IT チームとデータ サイエンティストは、Red Hat OpenShift で NVIDIA AI を構築および管理できるようになり、企業は本番環境でのインテリジェント アプリケーションの提供を加速できます」
NVIDIA AI Enterprise 2.0 は、トレーニングと推論をサポートするために、より多くの NVIDIA AI ソフトウェアコンテナーも導入しています。 NVIDIA TAO Toolkit のサポートにより、企業の開発者は NVIDIA の事前トレーニング済み AI モデルを微調整および最適化を行い、AI の専門知識や大規模なトレーニング データなしで、カスタムの本番環境対応モデルの作成を簡素化できます。 NVIDIA Triton Inference Server の最新リリースもソフトウェア スイートに含まれています。
NTTグループ内の情報通信技術ソリューションの世界的大手プロバイダーである NTTコミュニケーションズ (NTT Com) は、NVIDIA AI Enterprise を採用し、NLP およびインテリジェントビデオ解析アプリケーションを構築する研究開発チームを加速させました。
NTTコミュニケーションズ株式会社イノベーションセンター担当部長逸見彰一郎氏 は次のように述べています。「現在、当社のアプリケーション開発者の多くがアクセラレーション コンピューティングを使用しており、使いやすく、コスト効率にも優れたGPU対応環境を提供する社内インフラを必要としていました。NVIDIA AI Enterpriseは、当社が進めるVMware vSphere、Kubernetes、クラウドインフラ基盤において、大規模な開発をサポートするAI対応プラットフォームとして、理想的なソリューションを提供してくれると確信しています。」
お客様は、NVIDIA AI Enterprise のライセンスを取得して、Cisco、 Dell Technologies 、New H3C Information Technologies、Hewlett Packard Enterprise、 Inspur Electronic Information、 Lenovo、 Nettrix および Supermicro などの大手メーカーの、NVIDIA-Certified Systems、または NVIDIA GPU を搭載しない同じサーバー モデルで実行することができます。
また、世界中のEquinix International Business Exchange™ (IBX®) データセンターでホストされているサーバーに導入することも可能です。Amazon Web Services、Google Cloud、Microsoft Azureのクラウドインスタンスもサポートされるようになりました。NVIDIA AI Enterpriseは、NVIDIA DGXシステムに含まれています。
入手方法
NVIDIA の AI ソフトウェアのコレクションは、NVIDIA 開発者プログラムの一部として開発者が利用できます。
企業は、無料で利用できる、世界中の 9 箇所の Equinix IBX データセンターでの Equinix Metal サービスを利用したホスト型プログラムである NVIDIA LaunchPad で、IT チームおよび AI 開発者向けにキュレートされたラボで NVIDIA AI ソフトウェアを無料で体験できます。 新しい LaunchPad ラボには、Riva の新しい音声 AI ラボのほか、Red Hat OpenShift、 VMware vSphere with Tanzu、TAO Toolkit、FIL バックエンドに対応した Triton Inference Server を備えた NVIDIA AI Enterprise ラボが含まれています。
NVIDIA AI の詳細については、ジェンスン フアンのGTC 2022基調講演のリプレイをご覧ください。 GTC 2022に無料で登録し、NVIDIAおよび業界のリーダーによるセッションに参加してください。
NVIDIA について
1999 年における NVIDIA (NASDAQ表示: NVDA) による GPU の発明は、PC ゲーミング市場の成長に爆発的な拍車をかけ、現代のコンピューター グラフィックス、ハイパフォーマンス コンピューティング、そして人工知能 (AI) を再定義しました。NVIDIA のアクセラレーテッド コンピューティングと AI における先駆的な取り組みは、輸送、ヘルスケア、製造業などの数兆ドル規模の産業を再構築し、その他のさまざまな産業の拡大も加速させています。
詳細は、こちらのリンクから:https://nvidianews.nvidia.com/