GPU NVIDIA A2 Tensor Core

La GPU versátil de nivel de entrada que lleva la IA de NVIDIA a cualquier servidor.

Inferencia de Nivel de Entrada para el Edge Inteligente

La GPU NVIDIA A2 Tensor Core proporciona inferencia de nivel de entrada con bajo consumo de energía, tamaño reducido y alto rendimiento para análisis de video inteligente (IVA) con NVIDIA AI en el edge. Con una GPU PCIe Gen4 de bajo perfil y una baja capacidad de potencia de diseño térmico configurable (TDP) de 40-60 W, la A2 brinda una aceleración de inferencia versátil a cualquier servidor para su implementación a escala.

Aceleraciones Significativas de Inferencia

La inferencia de IA se implementa para mejorar la vida de los consumidores con experiencias inteligentes en tiempo real y para obtener información de billones de sensores y cámaras de punto final. En comparación con los servidores de solo CPU, los servidores de nivel de entrada y de edge con las GPU NVIDIA A2 Tensor Core ofrecen aceleraciones significativas para la inferencia, actualizando instantáneamente cualquier servidor para manejar la IA moderna.

Visión por Computador
(EfficientDet-DO)

Procesamiento Natural del Lenguaje
(BERT-Large)

Texto-a-Voz
(Tacotron2 + Waveglow)

Comparaciones de una GPU NVIDIA A2 Tensor Core con una CPU Xeon Gold 6330N de dos sockets

Mejor rendimiento de
IVA para el Edge Inteligente

En comparación con las implementaciones de servidores solo con CPU, los servidores equipados con GPU NVIDIA A2 ofrecen hasta 1.3 veces más rendimiento en casos de uso de borde inteligente, incluidas ciudades inteligentes, manufactura y venta minorista. Los servidores acelerados con GPU NVIDIA A2 que ejecutan cargas de trabajo IVA ofrecen implementaciones más eficientes que las generaciones anteriores de GPU, con un rendimiento hasta 1,6 veces superior por dólar y un 10% más de eficiencia energética.

Rendimiento de IVA (Normalizado)

IVA Performance

Optimizado para Cualquier Servidor

La NVIDIA A2 está optimizada para cargas de trabajo de inferencia e implementaciones en servidores de nivel de entrada limitados por requisitos de espacio y térmicos, como entornos industriales y 5G en el edge. La A2 ofrece un formato de perfil bajo que funciona en un entorno con menor consumo de energía, desde un TDP de 60 W hasta 40 W, lo que lo hace ideal para cualquier servidor. 

Menor Consumo de Energía y TDP Configurable

Lower Power and Configurable TDP

Líder en Rendimiento de Inferencia de IA en el Cloud, el Data Center y el Edge

La inferencia de IA continúa impulsando la innovación revolucionaria en todas las industrias, incluida la Internet del consumidor, el área de la salud y las ciencias de la vida, los servicios financieros, el comercio minorista, la manufactura y la supercomputación. El formato pequeño y el bajo consumo de A2, combinados con las GPU NVIDIA A100 y A30 Tensor Core, brindan una cartera completa de inferencias de IA en el cloud, el data center y el edge. La A2 y el portafolio de inferencias de IA de NVIDIA garantizan que las aplicaciones de IA se implementen con menos servidores y menor consumo de energía, lo que da como resultado información más rápida con costos efectivamente más bajos.

Leading AI Inference Performance Across Cloud, Data Center, and Edge

Lista para la Utilización Empresarial

NVIDIA AI Enterprise

NVIDIA AI Enterprise, un conjunto de software de análisis de datos e inteligencia artificial nativo del cloud de un extremo a otro, está certificado para ejecutarse en A2 en una infraestructura virtual basada en hipervisor con VMware vSphere. Esto permite la gestión y el escalado de cargas de trabajo de inferencia e inteligencia artificial en un entorno de cloud híbrido.

Más información sobre NVIDIA AI Enterprise ›

NVIDIA AI Enterprise
NVIDIA Certified Systems

Principales Sistemas Certificados por NVIDIA

Los Sistemas Certificados™ por NVIDIA con NVIDIA A2 combinan la aceleración de computación y la red NVIDIA segura y de alta velocidad en servidores de data centers empresariales, construidos y vendidos por los socios OEM de NVIDIA. Este programa permite a los clientes identificar, adquirir e implementar sistemas para aplicaciones de IA modernas tradicionales y diversas del catálogo NVIDIA NGC™ en una única infraestructura escalable, rentable y de alto rendimiento.

Más información sobre los Sistemas Certificados por NVIDIA ›

Desarrollado por la Arquitectura NVIDIA Ampere

La arquitectura NVIDIA Ampere está diseñada para la era de la computación elástica, y ofrece el rendimiento y la aceleración necesarios para impulsar las aplicaciones empresariales modernas. Explore el corazón de los data centers flexibles y de mayor rendimiento del mundo.

Más información sobre la Arquitectura NVIDIA Ampere ›

NVIDIA Ampere Architecture

Especificaciones Técnicas

Peak FP32 4.5 TF
TF32 Tensor Core 9 TF | 18 TF¹
BFLOAT16 Tensor Core 18 TF | 36 TF¹
Peak FP16 Tensor Core 18 TF | 36 TF¹
Peak INT8 Tensor Core 36 TOPS | 72 TOPS¹
Peak INT4 Tensor Core 72 TOPS | 144 TOPS¹
RT Cores 10
Motores de medios 1 codificador de video
2 decodificadores de video (incluye decodificación AV1)
16GB GDDR6
Ancho de banda de la memoria de la GPU 200GB/s
Interconexión PCIe Gen4 x8
Formato 1-slot, PCIe de perfil bajo
Potencia máxima de diseño térmico (TDP) 40–60W (configurable)
Soporte de software de GPU virtual (vGPU)² NVIDIA Virtual PC (vPC), NVIDIA Virtual Applications (vApps), NVIDIA RTX Virtual Workstation (vWS), NVIDIA AI Enterprise, NVIDIA Virtual Compute Server (vCS)

Dentro de la Arquitectura NVIDIA Ampere

Explora las tecnologías de vanguardia de la arquitectura NVIDIA Ampere.