GPU NVIDIA A30 Tensor Core

Aceleración de computación versátil para servidores empresariales convencionales.

Inferencia de IA y computación convencional para todas las empresas

Lleve el rendimiento acelerado a cada carga de trabajo empresarial con la GPU NVIDIA A30 Tensor Core. Con la arquitectura NVIDIA Ampere Tensor Cores y GPU multiinstancia (MIG), ofrece aceleraciones de forma segura en diversas cargas de trabajo, incluida la inferencia de IA a escala y en aplicaciones de computación de alto rendimiento (HPC). Al combinar el ancho de banda de memoria rápida y el bajo consumo de energía en un factor de forma PCIe, óptimo para los servidores convencionales, el A30 se convierte en un centro de datos elástico y ofrece el máximo valor para las empresas.

La solución de centro de datos para la TI moderna

La arquitectura NVIDIA Ampere forma parte de la plataforma NVIDIA EGX™ unificada, que incorpora bloques de construcción a través de hardware, redes, software, bibliotecas y modelos y aplicaciones de IA optimizados del catálogo NVIDIA NGC™. Representa la plataforma de IA y HPC integral más potente para centros de datos y permite a los investigadores ofrecer rápidamente resultados reales e implementar soluciones en producción a escala.

Entrenamiento de Deep Learning

Entrenamiento de IA: hasta 3 y 6 veces más rendimiento que v100 y T4

NVIDIA A30 Tensor Cores con Tensor Float (TF32)

Entrenar modelos de IA para desafíos de siguiente nivel, como la IA conversacional, requiere una capacidad enorme de potencia de computación y escalabilidad.

NVIDIA A30 Tensor Cores con Tensor Float (TF32) tiene un rendimiento hasta 10 veces mayor que el de NVIDIA T4, sin cambios de código, y una aceleración adicional duplicada con precisión mixta automática y FP16, de manera que la mejora combinada es 20 veces superior. Al combinarse con NVIDIA® NVLink®, PCIe Gen4, el sistema de red NVIDIA Mellanox® y el SDK NVIDIA Magnum IO™, es posible escalar a miles de GPU. 

Tensor Cores y MIG permiten que el A30 se use para cargas de trabajo dinámicamente durante todo el día. Se puede utilizar para la inferencia de producción en momentos de máxima demanda, y parte de la GPU se puede reutilizar para volver a entrenar rápidamente esos mismos modelos durante las horas de menor actividad.

NVIDIA ha batido varios récords de rendimiento en MLPerf, el índice de referencia del sector para el entrenamiento de IA. 

Inferencia de Deep Learning

A30 presenta innovadoras características para optimizar las cargas de trabajo de inferencia. Acelera los procesos de precisión con diversas opciones, desde FP64 hasta TF32 e INT4. El A30 soporta hasta cuatro MIG por GPU y permite que varias redes funcionen simultáneamente en particiones de hardware seguras con calidad de servicio garantizada (QoS). Además, el soporte de dispersión estructural ofrece hasta el doble de rendimiento, junto con las otras mejoras de rendimiento de inferencia del A30.  

En los modelos de IA conversacional de última generación, el A30 acelera el rendimiento de inferencia en tiempo real el triple que la GPU NVIDIA V100 Tensor Core de la generación anterior. 

En la clasificación de imágenes en tiempo real (que requiere una latencia <7 ms), el A30 acelera el rendimiento 7 veces más que el NVIDIA T4.

El rendimiento líder de IA de NVIDIA se ha demostrado en la escala de inferencia de MLPerf. Combinado con NVIDIA Triton™ Inference Server, que implementa fácilmente la IA a escala, el A30 ofrece este rendimiento innovador a todo tipo de empresas. 

Inferencia de IA: hasta 3 veces más rendimiento que V100 en IA conversacional en tiempo real

Plataforma de inferencia de Deep Learning de NVIDIA

Inferencia de IA: más del triple de rendimiento que T4 en la clasificación de imágenes en tiempo real

Inferencia de Deep Learning de NVIDIA

Computación de alto rendimiento

Entrenamiento de IA: hasta 1,1 y 8 veces más rendimiento que v100 y T4

NVIDIA A30 cuenta con doble precisión (FP64)

A fin de poder hacer los descubrimientos de la próxima generación, los científicos buscan simulaciones para comprender mejor el mundo que nos rodea.

NVIDIA A30 cuenta con la arquitectura FP64 NVIDIA Ampere Tensor Cores que ofrece el mayor salto en rendimiento de HPC desde la introducción de las GPU. Combinado con 24 gigabytes (GB) de memoria de GPU con un ancho de banda de 933 gigabytes por segundo (GB/s), los investigadores pueden resolver rápidamente cálculos de doble precisión. Las aplicaciones HPC también pueden aprovechar TF32 para lograr un rendimiento superior para operaciones de multiplicación de matrices densas de precisión sencilla.

La combinación de FP64 Tensor Cores y MIG permite a los centros de investigación particionar de forma segura la GPU para permitir a varios investigadores acceder a recursos informáticos con la garantía de QoS y la máxima utilización de GPU. Las empresas que implementan IA pueden usar las capacidades de inferencia del A30 durante los períodos de demanda máxima y, a continuación, reutilizar los mismos servidores informáticos para cargas de trabajo de formación de HPC y IA durante los momentos de menor actividad. 

Análisis de datos de alto rendimiento

Los científicos de datos deben poder analizar, visualizar y convertir conjuntos de datos masivos en información. Sin embargo, con frecuencia las soluciones de escalado horizontal se detienen a medida que estos conjuntos de datos se dispersan en varios servidores. 

Los servidores acelerados con A30 ofrecen la potencia de computación necesaria, junto con una memoria masiva, 933 GB/s de ancho de banda de memoria y escalabilidad con NVLink para hacer frente a estas cargas de trabajo. En combinación con InfiniBand, NVIDIA Magnum IO y la suite RAPIDS™ de bibliotecas de código abierto, incluido el acelerador RAPIDS para Apache Spark, la plataforma de centro de datos de NVIDIA acelera estas enormes cargas de trabajo a unos niveles de rendimiento y eficacia sin precedentes.

Análisis acelerado por GPU de NVIDIA

Análisis de datos de alto rendimiento

Análisis acelerado por GPU de NVIDIA

Los científicos de datos deben poder analizar, visualizar y convertir conjuntos de datos masivos en información. Sin embargo, con frecuencia las soluciones de escalado horizontal se detienen a medida que estos conjuntos de datos se dispersan en varios servidores. 

Los servidores acelerados con A30 ofrecen la potencia de computación necesaria, junto con una memoria masiva, 933 GB/s de ancho de banda de memoria y escalabilidad con NVLink para hacer frente a estas cargas de trabajo. En combinación con InfiniBand, NVIDIA Magnum IO y la suite RAPIDS™ de bibliotecas de código abierto, incluido el acelerador RAPIDS para Apache Spark, la plataforma de centro de datos de NVIDIA acelera estas enormes cargas de trabajo a unos niveles de rendimiento y eficacia sin precedentes.

Obtén más información sobre el análisis de datos ›

Utilización preparada para la empresa

A30 con MIG maximiza la utilización de infraestructura acelerada por GPU.

A30 con MIG maximiza la utilización de infraestructura acelerada por GPU. Con MIG, una GPU A30 se puede dividir en hasta cuatro instancias independientes, lo que hace posible que varios usuarios utilicen la aceleración de la GPU.

MIG funciona con Kubernetes, contenedores y virtualización de servidores basada en hipervisor. MIG permite a los administradores de infraestructuras ofrecer una GPU con calidad de servicio (QoS) garantizada para cada tarea, lo que amplía el alcance de los recursos de computación acelerados a todos los usuarios.

NVIDIA AI Enterprise

NVIDIA AI Enterprise, una suite de software integral de IA y análisis de datos nativo en la nube, está certificado para ejecutarse en A30 en una infraestructura virtual basada en hipervisor con VMware vSphere. Esto permite administrar y escalar las cargas de trabajo de IA en un entorno de nube híbrida. 

NVIDIA-Certified Systems convencionales

NVIDIA-Certified Systems™ con NVIDIA A30 introduce la aceleración informática y las redes NVIDIA seguras de alta velocidad en los servidores de centros de datos empresariales que los partners OEM de NVIDIA fabrican y venden. Este programa permite a los clientes identificar, adquirir e implementar sistemas para aplicaciones de IA modernas, tradicionales y diversas del catálogo NVIDIA NGC en una única infraestructura escalable, rentable y de alto rendimiento.

Especificaciones de la GPU A30 Tensor Core

FP64 5,2 teraFLOPS
FP64 Tensor Core 10,3 teraFLOPS
FP32 10,3 teraFLOPS
TF32 Tensor Core 82 teraFLOPS | 165 teraFLOPS*
BFLOAT16 Tensor Core 165 teraFLOPS | 330 teraFLOPS*
FP16 Tensor Core 165 teraFLOPS | 330 teraFLOPS*
INT8 Tensor Core TOPS 330 | TOPS 661*
INT4 Tensor Core TOPS 661 | TOPS 1321*
Motores multimedia 1 acelerador de flujo óptico (OFA)
1 decodificador JPEG (NVJPEG)
4 decodificadores de vídeo (NVDEC)
Memoria de la GPU 24 GB HBM2
Ancho de banda de memoria de la GPU 933 GB/s
Interconexión PCIe Gen4: 64 GB/s
NVLINK de tercera generación: 200 GB/s**
Formato Ranura doble de longitud y altura completas (FHFL)
Potencia máxima de diseño térmico (TDP) 165 W
GPU multiinstancia (MIG) 4 instancias de GPU a 6 GB cada una
2 instancias de GPU a 12 GB cada una
1 instancia de GPU a 24 GB
Soporte técnico del software de GPU virtual (vGPU) NVIDIA AI Enterprise
NVIDIA Virtual Compute Server

Consulta los últimos datos de pruebas de rendimiento de MLPerf

En el interior de la arquitectura NVIDIA Ampere

Explore las tecnologías de vanguardia de la arquitectura NVIDIA Ampere.