Introducido por primera vez en la arquitectura NVIDIA Volta™, la tecnología NVIDIA Tensor Core ha traído velocidades espectaculares a la IA, reduciendo los tiempos de entrenamiento de semanas a horas y proporcionando una aceleración masiva a la inferencia. La arquitectura NVIDIA Ampere se basa en estas innovaciones al aportar nuevas precisiones (Tensor Float 32 (TF32) y coma flotante 64 (FP64) para acelerar y simplificar la adopción de IA y ampliar la potencia de Tensor Cores a HPC.
TF32 funciona igual que FP32 y ofrece velocidades hasta 20 veces superiores para la IA sin necesidad de ningún cambio de código. Con la Precisión combinada y automática de NVIDIA, los investigadores pueden obtener un rendimiento 2X adicional con precisión mixta automática y FP16 agregando solo un par de líneas de código. Y con soporte para bfloat16, INT8 e INT4, Tensor Cores en la arquitectura NVIDIA Ampere, las GPU Tensor Core crean un acelerador increíblemente versátil tanto para el entrenamiento como para la inferencia de IA. Al llevar la potencia de Tensor Cores a las GPU HPC, A100 y A30 también permite operaciones de matriz con una precisión FP64 completa y certificada por IEEE.