A inferência de AI é implantada para aprimorar a vida do consumidor com experiências inteligentes e em tempo real e para obter insights de trilhões de sensores e câmeras de endpoint. Em comparação com os servidores apenas com CPU, os servidores no edge e de entrada com GPUs NVIDIA A2 Tensor Core oferecem acelerações significativas para inferência, atualizando instantaneamente qualquer servidor para lidar com a AI moderna.
GPU NVIDIA A2 Tensor Core
A GPU básica versátil que leva a NVIDIA AI para qualquer servidor.