GPU NVIDIA A30
Tensor Core

Aceleración de la computación versátil para los servidores empresariales convencionales.

Inferencia de IA y Computación Convencional para Todas las Empresas

Lleva el rendimiento acelerado a cada carga de trabajo empresarial con la GPU NVIDIA A30 Tensor Core. Gracias los Tensor Cores de la arquitectura NVIDIA Ampere y la tecnología de Múltiples instancias de GPU (MIG), ofrece aceleraciones de forma segura en diversas cargas de trabajo, incluida la inferencia de IA a escala y las aplicaciones de computación de alto rendimiento (HPC). Al combinar un ancho de banda de memoria rápido y un bajo consumo de energía en un factor de forma PCIe, óptimo para servidores convencionales, el modelo A30 permite un data center elástico y ofrece el máximo valor para las empresas.

La Solución de Data Center para la TI Moderna

La arquitectura NVIDIA Ampere es parte de la solución completa para data centers empresariales de NVIDIA, que incorpora componentes fundamentales en hardware, redes, software, bibliotecas y modelos y aplicaciones de IA optimizadas del catálogo NVIDIA NGC™. Ofrece la plataforma integral de HPC y AI más potente para data centers, lo que les permite a los investigadores entregar rápidamente resultados del mundo real e implementar soluciones en producción a escala.

Entrenamiento de Deep Learning

Entrenamiento de IA: rendimiento hasta 3 veces mayor que v100 y 6 veces mayor que T4

Entrenamiento de Ajuste Fino de BERT Large para la Convergencia

NVIDIA A30 Tensor Cores with Tensor Float (TF32)

El entrenamiento de los modelos de inteligencia artificial para desafíos de siguiente nivel, como la inteligencia artificial conversacional, requiere una enorme capacidad de computación y escalabilidad.

NVIDIA A30 Tensor Cores con Tensor Float (TF32) brindan un rendimiento hasta 10 veces mayor que el NVIDIA T4 sin cambios de código y el doble de impulso con precisión mixta automática y FP16, para brindar aumentar el rendimiento 20 veces de forma combinada. Cuando se utiliza con NVIDIA® NVLink®, PCIe Gen4, las redes NVIDIA Mellanox® y el SDK NVIDIA Magnum IO™, es posible escalar a miles de GPU.

Los Tensor Cores y la tecnología MIG permiten que A30 se utilice para cargas de trabajo de forma dinámica a lo largo del día. Se puede utilizar para la inferencia de producción en los picos de demanda. Además, se puede reutilizar parte de la GPU para volver a entrenar rápidamente esos mismos modelos durante las horas de menor actividad.

NVIDIA estableció varios récords de rendimiento en MLPerf, la evaluación de la industria para el entrenamiento de IA.

Obtén más información sobre la arquitectura NVIDIA Ampere para el entrenamiento 

Inferencia de Deep Learning

A30 presenta características innovadoras para optimizar las cargas de trabajo de inferencia. Acelera una gama completa de precisiones, desde FP64 hasta TF32 e INT4. A30 admite hasta cuatro MIG por GPU, por lo que permite que varias redes operen simultáneamente en particiones de hardware seguras con calidad de servicio (QoS) garantizada. La compatibilidad con la baja densidad estructural ofrece hasta 2 veces más rendimiento, además de otras ganancias de rendimiento de inferencia de la A30.

El rendimiento de IA líder en el mercado de NVIDIA se demostró en la prueba MLPerf Inference. A30 brinda este rendimiento revolucionario a todas las empresas, cuando se combina con el servidor de inferencia NVIDIA Triton™, que implementa fácilmente la IA a escala.

Obtén más información sobre la arquitectura NVIDIA Ampere para la inferencia ›

Inferencia de IA: Rendimiento hasta 3 Veces Mayor que la V100 en la IA Conversacional en Tiempo Real

Rendimiento de la inferencia de BERT Large (normalizado) para una latencia menor a los 10ms

NVIDIA Deep Learning Inference

Inferencia de IA: Rendimiento 3 Veces Superior al de la T4 en la Clasificación de Imágenes en Tiempo Real

Inferencia RN50 v1.5 (normalizada)
Rendimiento para latencia menor a los 7 ms

NVIDIA Deep Learning Inference

Computación de Alto Rendimiento

HPC: hasta 1.1 Veces Más de Rendimiento que la V100 y 9 Veces Más de Rendimiento que la T4

LAMMPS (normalizado)

NVIDIA A30 features double precision (FP64)

Para desbloquear los descubrimientos de la próxima generación, los científicos buscan simulaciones que les permiten comprender mejor el mundo que nos rodea.

NVIDIA A30 cuenta con Tensor Cores de precisión FP64 y con la arquitectura NVIDIA, que brindan el mayor salto en el rendimiento de HPC desde la introducción de las GPU. La combinación de 24GB de memoria de GPU con un ancho de banda de 933Gb/s les permite a los investigadores resolver rápidamente cálculos de doble precisión. Las aplicaciones de HPC también pueden aprovechar la precisión TF32 para lograr un rendimiento más alto en las operaciones de multiplicación de matriz densa y de precisión simple.

La combinación de los FP64 Tensor Cores y la tecnología MIG potencia a las instituciones de investigación, ya que les permite particionar la GPU de forma segura. De esta forma, diferentes investigadores pueden acceder a los recursos de computación con un QoS garantizado y la máxima utilización de GPU. Las empresas que implementan la IA pueden usar las capacidades de inferencia de A30 durante los períodos de máxima demanda y luego reutilizar los mismos servidores de computación para las cargas de trabajo de entrenamiento de HPC e IA durante los períodos de menor actividad.

Revise el Rendimiento Más Reciente de GPU en Aplicaciones de HPC 

Análisis de Datos de Alto Rendimiento

Los científicos de datos deben poder analizar, visualizar y convertir enormes conjuntos de datos en conocimientos. Sin embargo, las soluciones de escalamiento horizontal a menudo se ven empantanadas por conjuntos de datos dispersos en varios servidores.

Los servidores acelerados con A30 proporcionan la potencia de computación necesaria, junto con una gran memoria HBM2, 933GB/s de ancho de banda de memoria y escalabilidad con NVLink, para hacer frente a estas cargas de trabajo. La plataforma de data center de NVIDIA acelera estas enormes cargas de trabajo a niveles sin precedentes de rendimiento y eficacia, cuando se combina con InfiniBand, NVIDIA Magnum IO y el conjunto de bibliotecas de código abierto RAPIDS™.

Obtén más información sobre el análisis de datos ›

NVIDIA GPU-accelerated Analytics

Análisis de Datos de Alto Rendimiento

NVIDIA GPU-accelerated Analytics

Los científicos de datos deben poder analizar, visualizar y convertir enormes conjuntos de datos en conocimientos. Sin embargo, las soluciones de escalamiento horizontal a menudo se ven empantanadas por conjuntos de datos dispersos en varios servidores.

Los servidores acelerados con A30 proporcionan la potencia de computación necesaria, junto con una gran memoria HBM2, 933GB/s de ancho de banda de memoria y escalabilidad con NVLink, para hacer frente a estas cargas de trabajo. La plataforma de data center de NVIDIA acelera estas enormes cargas de trabajo a niveles sin precedentes de rendimiento y eficacia, cuando se combina con InfiniBand, NVIDIA Magnum IO y el conjunto de bibliotecas de código abierto RAPIDS™.

Obtén más información sobre el análisis de datos ›

Utilización Lista para Empresas

A30 with MIG maximizes the utilization of GPU-accelerated infrastructure

A30 con MIG maximiza la utilización de la infraestructura acelerada por GPU. Con MIG, una GPU A30 se puede dividir en hasta cuatro instancias independientes, lo que brinda a varios usuarios acceso a la aceleración de la GPU.

MIG es compatible con Kubernetes, contenedoresss y la virtualización de servidores basada en un hipervisor. MIG permite a los administradores de infraestructura ofrecer una GPU del tamaño adecuado con QoS garantizada para cada trabajo, lo que extiende el alcance de los recursos de computación acelerados a cada usuario.

Obtén más información sobre MIG ›

NVIDIA AI Enterprise

NVIDIA AI Enterprise, un conjunto integral de software de análisis de datos e IA nativa del cloud, está certificado para ejecutarse en una A30 con una infraestructura virtual basada en hipervisor con VMware vSphere. Esto permite la gestión y el escalado de cargas de trabajo de IA en un entorno de instancias de cloud híbridas.

Obtén más información sobre NVIDIA AI Enterprise ›

Sistemas Certificados por NVIDIA Convencionales

Los Sistemas Certificados por NVIDIA™ con NVIDIA A30 combinan la aceleración de computación y las redes de NVIDIA seguras y de alta velocidad en servidores de data centers empresariales, fabricados y vendidos por los socios OEM de NVIDIA. Este programa permite a los clientes identificar, adquirir e implementar sistemas para aplicaciones de IA modernas tradicionales y diversas del catálogo de NVIDIA NGC en una única infraestructura escalable, rentable y de alto rendimiento.

Obtén más información sobre los Sistemas Certificados por NVIDIA  ›

Especificaciones de la GPU A30 Tensor Core

FP64 5.2 teraFLOPS
FP64 Tensor Core 10.3 teraFLOPS
FP32 10.3 teraFLOPS
TF32 Tensor Core 82 teraFLOPS | 165 teraFLOPS*
BFLOAT16 Tensor Core 165 teraFLOPS | 330 teraFLOPS*
FP16 Tensor Core 165 teraFLOPS | 330 teraFLOPS*
INT8 Tensor Core 330 TOPS | 661 TOPS*
INT4 Tensor Core 661 TOPS | 1321 TOPS*
Motores de Medios 1 acelerador de flujo óptico (OFA)
1 decodificador JPEG (NVJPEG)
4 decodificadores de video (NVDEC)
Memoria de GPU 24GB HBM2
Ancho de banda de la memoria de GPU 933GB/s
Interconexión PCIe Gen4: 64GB/s
NVLINK de tercera generación: 200GB/s**
Formato Ranura doble, altura completa, longitud completa (FHFL)
Potencia máxima de diseño térmico (TDP) 165W
Múltiples Instancias de GPU (MIG) 4 instancias de GPU con 6GB cada una
2 instancias de GPU con 12GB cada una
1 instancia de GPU con 24GB
Compatibilidad con el Software de GPU virtuales (vGPU) NVIDIA AI Enterprise
NVIDIA Virtual Compute Server

Vea las Últimos Versiones de MLPerf Benchmark

Dentro de la Arquitectura NVIDIA Ampere

Explora las tecnologías de vanguardia de la arquitectura NVIDIA Ampere.