NVIDIA T4 エンタープライズ GPU と CUDA-X 高速化ライブラリは、今日のモダン データ センター向けに設計されたメインストリーム サーバーを加速します。NGC 対応の検証との併用で、このサーバーは、さまざまな高速化されたワークロードで優れた性能を発揮します。NVIDIA NGC サポート サービスをオプションで利用すれば、さらに安心です。NVIDIA T4 を IT チームが活用すると、世界の主要なサーバーで標準的な GPU 対応データ センター インフラストラクチャを構築できます。
仮想デスクトップ インフラストラクチャ (VDI) のパフォーマンスが最大 33% 向上*
機械学習のトレーニングが最大 35 倍高速化
ディープラーニングのトレーニングが最大 10 倍高速化
ディープラーニングの推論で分析情報を得るまでの時間が 40 倍高速化
AI 市場においてディープラーニングは比較的最近にもたらされましたが、企業は既に数十年にわたり、機械学習を利用してデータから分析情報を収集してきました。NVIDIA T4 データ センター GPU はそのような機械学習の手法を CUDA-X AI ソフトウェア高速化ライブラリ RAPIDS を利用して加速できます。RAPIDS は、GPU でデータの準備と機械学習を高速化するための一連のオープンソース ライブラリです。Python など、人気の開発ツールを利用して、T4 GPU は XGBoost、PCA、K-means、k-NN、DBScan、tSVD 等のアルゴリズムを含む CPU だけのサーバーと比較して機械学習を最大 35 倍高速化できます。
NVIDIA T4 は革新的な NVIDIA Turing™ Tensor コア テクノロジと AI ワークロードの多精度コンピューティングをベースにしています。FP32 から FP16、INT8、さらには INT4 に対応する画期的な性能を備えた T4 は、CPU の最大 40 倍のパフォーマンスを発揮します。トレーニングの場合、2 基の T4 GPU を搭載した 1 台のサーバーは、9 基のデュアルソケット搭載の CPU だけのサーバーに匹敵します。
開発者は、NVIDIA CUDA-X AI ソフトウェア ライブラリを利用し、あらゆる AI フレームワークと統合し、Turing Tensor コアの能力を解き放つことができます。CUDA をベースに開発された NVIDIA の並列プログラミング モデル、CUDA-X ライブラリは、人工知能 (AI)、自律動作マシン、ハイ パフォーマンス コンピューティング、グラフィックスそれぞれに固有のコンピューティング要件に合わせて最適化します。
NVIDIA T4 搭載のメインストリーム サーバーは仮想 GPU ソフトウェアのパートナーにより認定されています。場所とデバイスを問わず、ユーザーは高品質の仮想デスクトップを利用できます。ナレッジ ワーカー、モバイル プロフェッショナルからデザイナー、エンジニアまで、T4 と NVIDIA 仮想 GPU ソフトウェア (NVIDIA GRID® Virtual PC (GRID vPC) と NVIDIA Quadro® 仮想 データ センター ワークステーション (Quadro vDWS)) を組み合わせると VDI が高速化され、CPU のみの VDI 環境に比べ、最大 33% パフォーマンスが向上します。
世界最高レベルのパフォーマンスを実現するためにソフトウェアを最適化するには、オペレーティング システム、ドライバーからライブラリ、フレームワーク、アプリケーションに至るまで、さまざまなソフトウェア層を深く理解する必要があります。NGC コンテナーは GPU コンピューティング向けに構成済みで、高度に最適化されています。このコンテナーは、比類なき NVIDIA の専門知識と、GPU 対応ディープラーニング フレームワーク、RAPIDS ソフトウェア、NVIDIA TensorRT™、600 を超えるハイ パフォーマンス コンピューティング アプリケーションからなるエコシステム サポートを提供します。
NVIDIA の NGC 対応プログラムを利用すると、あらゆるサーバー メーカーが自社システムで NGC コンテナーを検証できます。NGC 対応サーバーを利用すれば、データ センター の管理者は GPU を備えたサーバーを自信をもって展開できます。簡単に設定し、高速化されたさまざまなアプリケーションで優れたパフォーマンスを発揮できることがわかっているからです。