GPU NVIDIA A30
Tensor Core

Aceleração computacional versátil para os principais servidores empresariais.

Inferência de AI e Computação Convencional para Todas as Empresas

Acelere o desempenho de todas as cargas de trabalho empresariais com a GPU NVIDIA A30 Tensor Core. Com os Tensor Cores e a GPU Multi-Instância (MIG - Multi-Instance GPU) da arquitetura NVIDIA Ampere, ela oferece aceleração com segurança em diversas cargas de trabalho, como a de inferência de AI de grande escala e as aplicações de computação de alto desempenho (HPC - High Performance Computing). Com largura de banda de memória rápida e baixo consumo de energia em um formato PCIe, ideal para servidores convencionais, a A30 possibilita um data center elástico e entrega o valor máximo às empresas.

A Solução de Data Center para a IT Moderna

A arquitetura NVIDIA Ampere faz parte da solução completa de data center empresarial da NVIDIA, que apresenta componentes de hardware, rede, software e bibliotecas, além de modelos e aplicações de AI otimizados a partir do catálogo do NVIDIA NGC™. Representando a mais potente plataforma de AI e HPC de ponta a ponta para data centers, ela permite que os pesquisadores gerem resultados práticos e implementem soluções em produção conforme a necessidade com rapidez.

Treinamento de Deep Learning

Treinamento de AI: Taxa de transferência até 3 vezes maior do que a V100 e 6 vezes maior do que a T4

Treinamento de Ajuste do BERT Large para Convergência

NVIDIA A30 Tensor Cores with Tensor Float (TF32)

Modelos de treinamento de AI para desafios complexos, como os de AI de conversação, exigem muita potência computacional e escalabilidade.

Os Tensor Cores com Tensor Float (TF32) da NVIDIA A30 proporcionam um desempenho até 10 vezes maior em relação à NVIDIA T4 com nenhuma alteração no código e um aumento adicional de 2 vezes com precisão mista automática e FP16, oferecendo um rendimento total 20 vezes superior. Com a NVIDIA®NVLink®, o PCIe de 4ª geração, a networking NVIDIA Mellanox® e o SDK NVIDIA Magnum IO™, é possível dimensionar para milhares de GPUs.

Com os Tensor Cores e a MIG, é possível usar a A30 para executar cargas de trabalho dinamicamente ao longo do dia. Ela pode ser usada para tarefas de inferência de produção com demanda máxima, e parte da GPU pode ser reaproveitada para treinar esses mesmos modelos em horários de demanda normal com rapidez.

A NVIDIA registrou vários recordes de desempenho no MLPerf, o benchmark do setor para treinamento de AI.

Saiba mais sobre a arquitetura NVIDIA Ampere para treinamento 

Inferência de Deep Learning

A A30 apresenta recursos inovadores que otimizam cargas de trabalho de inferência. Ela acelera diversas precisões, de FP64 a TF32 e INT4. Compatível com até quatro MIGs por GPU, a A30 permite que várias redes funcionem simultaneamente em partições de hardware seguras com Qualidade de Serviço (QoS) garantida. O suporte à dispersão estrutural também oferece até o dobro do desempenho, além dos outros aumentos de desempenho em inferência da A30.

O desempenho de AI líder da NVIDIA foi observado no MLPerf Inference. Com o Servidor de Inferência NVIDIA Triton™, que implementa AI em escala facilmente, a A30 oferece esse desempenho inovador a todas as empresas.

Saiba mais sobre a arquitetura NVIDIA Ampere para inferência ›

Inferência de AI: Rendimento até 3 Vezes Maior que o da V100 em AI de Conversação em Tempo Real

Rendimento de Inferência (Normalizada) do BERT Large para Latência Inferior a 10 ms

NVIDIA Deep Learning Inference

Inferência de AI: Taxa de Transferência 3 Vezes Maior do que a T4 na Classificação de Imagem em Tempo Real

Inferência RN50 v1.5 (normalizada)
Taxa de Transferência para Latência Inferior a 7ms

NVIDIA Deep Learning Inference

Computação de Alto Desempenho

HPC: Rendimento até 1,1 Vez Maior que o da V100 e 9 Vezes Maior que o da T4

LAMMPS (Normalizado)

NVIDIA A30 features double precision (FP64)

Para realizar descobertas revolucionárias, os cientistas recorrem às simulações para entender melhor o mundo a seu redor.

A NVIDIA A30 apresenta Tensor Cores de FP64 da arquitetura NVIDIA Ampere, que proporcionam o melhor desempenho de HPC desde o lançamento das GPUs. Com memória de GPU de 24GB e largura de banda de 933GB/s, os pesquisadores podem resolver cálculos de precisão dupla rapidamente. As aplicações de HPC também podem usar o TF32 para obter um rendimento mais alto em operações densas de multiplicação de matrizes de precisão simples.

Com Tensor Cores de FP64 e a MIG, os institutos de pesquisa podem particionar a GPU com segurança para oferecer a vários pesquisadores acesso a recursos de computação com QoS garantida e utilização máxima da GPU. As empresas que implementam AI podem usar os recursos de inferência da A30 nos períodos de demanda máxima e reaproveitar os servidores de computação para cargas de trabalho de HPC e treinamento de AI nos períodos de demanda normal.

Revise o Desempenho Mais Recente da GPU em Aplicações de HPC 

Análise de Dados de Alto Desempenho

Os cientistas de dados precisam ter a capacidade de analisar, visualizar e transformar grandes conjuntos de dados em informações. Porém, as soluções de escalabilidade horizontal geralmente ficam sobrecarregadas com os conjuntos de dados espalhados por vários servidores.

Servidores acelerados com a A30, além da memória grande de HBM2, da largura de banda de memória de 933GB/s e da escalabilidade com a NVLink, oferecem a potência computacional necessária para lidar com essas cargas de trabalho. Com a InfiniBand, o NVIDIA Magnum IO e o conjunto livre de bibliotecas RAPIDS™, que inclui o RAPIDS Accelerator para o Apache Spark, a plataforma de data center da NVIDIA acelera cargas de trabalho grandes e garante desempenho e eficiência inéditos.

Saiba mais sobre análise de dados ›

NVIDIA GPU-accelerated Analytics

Análise de Dados de Alto Desempenho

NVIDIA GPU-accelerated Analytics

Os cientistas de dados precisam ter a capacidade de analisar, visualizar e transformar grandes conjuntos de dados em informações. Porém, as soluções de escalabilidade horizontal geralmente ficam sobrecarregadas com os conjuntos de dados espalhados por vários servidores.

Servidores acelerados com a A30, além da memória grande de HBM2, da largura de banda de memória de 933GB/s e da escalabilidade com a NVLink, oferecem a potência computacional necessária para lidar com essas cargas de trabalho. Com a InfiniBand, o NVIDIA Magnum IO e o conjunto livre de bibliotecas RAPIDS™, que inclui o RAPIDS Accelerator para o Apache Spark, a plataforma de data center da NVIDIA acelera cargas de trabalho grandes e garante desempenho e eficiência inéditos.

Saiba mais sobre análise de dados ›

Utilização Pronta para Empresas

A30 with MIG maximizes the utilization of GPU-accelerated infrastructure

A A30 com a MIG maximiza o uso da infraestrutura acelerada por GPU. Com a MIG, é possível particionar uma GPU A30 em até quatro instâncias independentes, oferecendo a vários usuários acesso à aceleração por GPU.

A MIG funciona com Kubernetes, contêineres e virtualização de servidores baseada em hipervisor. Com ela, os gerentes de infraestrutura podem oferecer uma GPU do tamanho certo com QoS garantida para cada tarefa, ampliando o alcance dos recursos de computação acelerada para todos os usuários.

Saiba mais sobre a MIG ›

NVIDIA AI Enterprise

O NVIDIA AI Enterprise, um pacote nativo no cloud de ponta a ponta de softwares de AI e análise de dados, tem certificação para ser executado na A30 em uma infraestrutura virtual baseada em hipervisor com o VMware vSphere. Assim, é possível gerenciar e dimensionar cargas de trabalho de AI em um ambiente de cloud híbrido.

Saiba mais sobre o NVIDIA AI Enterprise ›

Sistemas Convencionais Certificados pela NVIDIA

Os Sistemas Certificados pela NVIDIA™ com a NVIDIA A30 oferecem aceleração computacional e alta velocidade, protegem a rede NVIDIA em servidores empresariais de data center, construídos e vendidos por parceiros OEM da NVIDIA. Com esse programa, os clientes podem identificar, adquirir e implementar sistemas para aplicações de AI modernas tradicionais e diversas do catálogo do NVIDIA NGC em uma única infraestrutura dimensionável, econômica e de alto desempenho.

Saiba mais sobre os Sistemas Certificados pela NVIDIA ›

Especificações da GPU A30 Tensor Core

FP64 5,2 teraFLOPS
FP64 Tensor Core 10,3 teraFLOPS
FP32 10.3 teraFLOPS
TF32 Tensor Core 82 teraFLOPS | 165 teraFLOPS*
BFLOAT16 Tensor Core 165 teraFLOPS | 330 teraFLOPS*
FP16 Tensor Core 165 teraFLOPS | 330 teraFLOPS*
INT8 Tensor Core 330 TOPS | 661 TOPS*
INT4 Tensor Core 661 TOPS | 1321 TOPS*
Mecanismos de mídia 1 acelerador de fluxo óptico (OFA - Optical Flow Accelerator)
1 decodificador de JPEG (NVJPEG)
4 decodificadores de vídeo (NVDEC)
Memória de GPU HBM2 de 24GB
Largura de Banda da Memória de GPU 933GB/s
Interconexão PCIe de 4ª geração: 64GB/s
NVLINK de 3ª geração: 200GB/s**
Formato Dois slots com altura e comprimento totais (FHFL - Full-Height, Full-Length)
Potência Máxima do Design Térmico (TDP - Thermal Design Power) 165W
GPU Multi-Instâncias (MIG) 4 instâncias de GPU com 6GB cada
2 instâncias de GPU com 12GB cada
1 instância de GPU com 24GB
Suporte aos softwares de GPU virtual (vGPU) NVIDIA AI Enterprise
NVIDIA Virtual Compute Server

Veja as Atualizações Mais Recentes do MLPerf Benchmark

Por Dentro da Arquitetura NVIDIA Ampere

Explore as tecnologias de ponta da arquitetura NVIDIA Ampere.