El entrenamiento de los modelos de inteligencia artificial para desafíos de siguiente nivel, como la inteligencia artificial conversacional, requiere una enorme capacidad de computación y escalabilidad.
NVIDIA A30 Tensor Cores con Tensor Float (TF32) brindan un rendimiento hasta 10 veces mayor que el NVIDIA T4 sin cambios de código y el doble de impulso con precisión mixta automática y FP16, para brindar aumentar el rendimiento 20 veces de forma combinada. Cuando se utiliza con NVIDIA® NVLink®, PCIe Gen4, las redes NVIDIA Mellanox® y el SDK NVIDIA Magnum IO™, es posible escalar a miles de GPU.
Los Tensor Cores y la tecnología MIG permiten que A30 se utilice para cargas de trabajo de forma dinámica a lo largo del día. Se puede utilizar para la inferencia de producción en los picos de demanda. Además, se puede reutilizar parte de la GPU para volver a entrenar rápidamente esos mismos modelos durante las horas de menor actividad.
NVIDIA estableció varios récords de rendimiento en MLPerf, la evaluación de la industria para el entrenamiento de IA.
Obtén más información sobre la arquitectura NVIDIA Ampere para el entrenamiento ›