NVIDIA 推論サーバーで、現在のソリューションの性能改善が簡単になり、GPU を最大限活用することができます。NVIDIA 推論サーバーは、すぐに利用可能なコンテナーで提供されるマイクロサービスです。TensorFlow、MXNet、Caffe2、MATLAB、NVIDIA TensorRT、ONNX 規格をサポートするフレームワークのどのモデルの組み合わせにも対応する、シンプルな REST (Representational State Transfer) API 経由で推論を実行できます。