A plataforma de inferência da NVIDIA oferece desempenho, eficiência e capacidade de resposta essenciais para impulsionar a próxima geração de produtos e serviços de AI no cloud, no data center, no edge da rede e em máquinas autônomas.
O Servidor de Inferência NVIDIA Triton™ é um software de código aberto para inferência de AI rápida e escalável na produção. O Triton permite que as equipes implantem modelos de AI treinados de qualquer framework (TensorFlow, PyTorch, XgBoost, Python e outros) em qualquer infraestrutura baseada em GPU ou CPU. Ele maximiza a utilização de GPU e CPU, oferece alta taxa de transferência com baixa latência e se integra ao Kubernetes para orquestração, métricas e escalonamento automático.