Nesses laboratórios práticos, você terá acesso a AI rápida e dimensionável usando o Servidor de Inferência NVIDIA Triton™, a inferência independente de plataforma que atende ao software e o NVIDIA TensorRT™, um SDK para inferência de deep learning de alto desempenho que inclui um otimizador de inferência e tempo de execução. Você poderá desbloquear imediatamente as vantagens da infraestrutura de computação acelerada da NVIDIA e dimensionar suas cargas de trabalho de AI. Escolha um abaixo para começar e faça perguntas aos especialistas da NVIDIA sobre sua infraestrutura específica.