GPU NVIDIA A2 Tensor Core

A GPU básica versátil que leva a NVIDIA AI para qualquer servidor.

Inferência de Nível Básico para o Edge Inteligente

A GPU NVIDIA A2 Tensor Core fornece inferência de nível básico com baixo consumo de energia, tamanho reduzido e alto desempenho para análise de vídeo inteligente (IVA) com NVIDIA AI no edge. Apresentando uma GPU PCIe Gen4 de baixo perfil e uma capacidade de design térmico configurável (TDP) de 40-60W, a A2 traz aceleração de inferência versátil para qualquer servidor para implantação em escala.

Acelerações Sinificativas de Inferência

A inferência de AI é implantada para aprimorar a vida do consumidor com experiências inteligentes e em tempo real e para obter insights de trilhões de sensores e câmeras de endpoint. Em comparação com os servidores apenas com CPU, os servidores no edge e de entrada com GPUs NVIDIA A2 Tensor Core oferecem acelerações significativas para inferência, atualizando instantaneamente qualquer servidor para lidar com a AI moderna.

CVisão Computacional
(EfficientDet-DO)

Processamento de Linguagem Natural
(BERT-Large)

Texto-para-Voz
(Tacotron2 + Waveglow)

Comparações de uma GPU NVIDIA A2 Tensor Core com uma CPU Xeon Gold 6330N de dois soquetes

Melhor desempenho de
IVA para o Edge Inteligente

Em comparação com as implantações de servidor apenas de CPU, os servidores equipados com GPUs NVIDIA A2 oferecem até 1,3 vezes mais desempenho em casos de uso no edge inteligente, incluindo cidades inteligentes, manufatura e varejo. Os servidores acelerados com GPUs NVIDIA A2 executando cargas de trabalho IVA oferecem implementações mais eficientes do que as gerações de GPU anteriores, com desempenho até 1,6 vez melhor por dólar e 10% mais eficiência energética.

Desempenho IVA (Normalizado)

IVA Performance

Otimizado para Qualquer Servidor

A NVIDIA A2 é otimizada para cargas de trabalho de inferência e implantações em servidores de nível básico limitados por requisitos de espaço e térmicos, como 5G no edge e ambientes industriais. A A2 oferece um formato de baixo perfil operando em um envelope com menor consumo energético, de um TDP de 60 W a 40 W, tornando-o ideal para qualquer servidor.

Menor Consumo Energético e TDP Configurável

Lower Power and Configurable TDP

Desempenho Líder de Inferência de AI no Cloud, Data Center e Edge

A inferência de IA continua a impulsionar inovações revolucionárias em todos os setores, incluindo internet para consumidores, área da saúde e ciências da vida, serviços financeiros, varejo, manufatura e supercomputação. O formato pequeno e o baixo consumo de energia da A2, combinados com as GPUs NVIDIA A100 e A30 Tensor Core, oferece um portfólio completo de inferência de AI no cloud, data center e edge. A A2 e o portfólio de inferência NVIDIA AI garantem que as aplicações de AI sejam implantadas com menos servidores e menor consumo de energia, resultando em insights mais rápidos com custos efetivamente mais baixos.

Leading AI Inference Performance Across Cloud, Data Center, and Edge

Pronta para Utilização Empresarial

NVIDIA AI Enterprise

NVIDIA AI Enterprise, uma suíte nativa do cloud de ponta a ponta de software de análise de dados e AI, é certificada para rodar a A2 em infraestrutura virtual baseada em hipervisor com VMware vSphere. Isso permite o gerenciamento e o dimensionamento de cargas de trabalho de AI e inferência em um ambiente de cloud híbrido.

Saiba mais sobre o NVIDIA AI Enterprise ›

NVIDIA AI Enterprise
NVIDIA Certified Systems

Principais Sistemas Certificados pela NVIDIA

Os Sistemas Certificados™ pela NVIDIA com NVIDIA A2 reúnem aceleração de computação e rede NVIDIA segura de alta velocidade em servidores de data center corporativos, desenvolvidos e vendidos por parceiros OEM da NVIDIA. Este programa permite que os clientes identifiquem, adquiram e implantem sistemas para aplicações modernas de AI tradicionais e diversas do catálogo NVIDIA NGC™ em uma única infraestrutura de alto desempenho, econômica e escalonável.

Saiba mais sobre os Sistemas Certificados pela NVIDIA ›

Impulsionada pela Arquitetura NVIDIA Ampere

A arquitetura NVIDIA Ampere foi projetada para a era da computação elástica, oferecendo o desempenho e a aceleração necessários para alimentar as aplicações empresariais modernas. Explore o coração dos data centers elásticos de maior desempenho do mundo.

Saiba mais sobre a arquitetura NVIDIA Ampere ›

NVIDIA Ampere Architecture

Especificações Técnicas

Peak FP32 4.5 TF
TF32 Tensor Core 9 TF | 18 TF¹
BFLOAT16 Tensor Core 18 TF | 36 TF¹
Peak FP16 Tensor Core 18 TF | 36 TF¹
Peak INT8 Tensor Core 36 TOPS | 72 TOPS¹
Peak INT4 Tensor Core 72 TOPS | 144 TOPS¹
RT Cores 10
Mecanismos de mídia 1 cofidicador de vídeo
2 decodificadores de vídeo (incluso decodificador AV1)
Memória da GPU 16GB GDDR6
Largura de banda da memória da GPU 200GB/s
Interconexão PCIe Gen4 x8
Formato 1 slot, PCIe de baixo perfil
Potência máxima de design térmico (TDP) 40–60W (configuirável)
Suporte ao software de GPU Virtual (vGPU)² NVIDIA Virtual PC (vPC), NVIDIA Virtual Applications (vApps), NVIDIA RTX Virtual Workstation (vWS), NVIDIA AI Enterprise, NVIDIA Virtual Compute Server (vCS)

Por Dentro da Arquitetura NVIDIA Ampere

Explore as tecnologias de ponta da arquitetura NVIDIA Ampere.