Triton Inference Server unterstützt alle wichtigen Frameworks wie TensorFlow, NVIDIA® TensorRT™, PyTorch, ONNX Runtime sowie benutzerdefinierte Backend-Frameworks. Somit haben KI-Forscher und Datenwissenschaftler die Freiheit, das richtige Framework für ihr Projekt zu wählen.
Einfachere Modellbereitstellung
Nutzen Sie NVIDIA Triton Inference Server, um KI-Modelle mit mehreren Frameworks in großem Maßstab bereitzustellen.