Mise en œuvre pour la première fois avec l’architecture NVIDIA Volta™, la technologie de cœurs NVIDIA Tensor a offert des gains de performance considérables pour l’intelligence artificielle, ce qui a permis de réduire les délais d’entraînement de plusieurs semaines à quelques heures tout en offrant une accélération significative des workflows d’inférence. L’architecture NVIDIA Ampere optimise les performances de calcul en ouvrant la voie à de nouveaux niveaux de précision (TF32 et FP64). Cette innovation technologique accélère et simplifie l’adoption des applications d’IA et apporte toute la puissance des cœurs NVIDIA Tensor aux workflows de calcul haute performance.
Les opérations TF32 fonctionnent de la même manière que les opérations FP32 tout en offrant une accélération jusqu’à 20 fois plus élevée pour les applications d’IA, sans nécessiter le moindre changement de code. Avec la fonctionnalité NVIDIA Automatic Mixed Precision, les chercheurs peuvent également multiplier les performances par deux grâce à la précision mixte automatique et le FP16 en ajoutant simplement quelques lignes de code. De plus, grâce à une prise en charge avancée des opérations bfloat16, INT8 et INT4, les cœurs Tensor des GPU basés sur l’architecture NVIDIA Ampere constituent un accélérateur incroyablement polyvalent pour l’entraînement et l’inférence des modèles d’IA. Et grâce à la puissance des cœurs Tensor pour le calcul haute performance, les GPU A100 et A30 permettent par ailleurs d’utiliser des opérations matricielles certifiées IEEE de précision FP64.