Les modèles d’IA, qui gagnent en complexité alors que surgissent des défis tels que la conception de nouvelles applications d’IA conversationnelle, nécessitent une évolutivité et une puissance de calcul chaque jour plus importantes.
Les cœurs Tensor des GPU A30 ainsi que leurs capacités de calcul de niveau TF32 (Tensor Float 32) vous offrent, sans changement du code-source, des performances jusqu’à 10 fois plus élevées par rapport au GPU NVIDIA T4 et un rendement doublé grâce à la technologie NVIDIA de précision mixte automatique ainsi qu’à la prise en charge des calculs FP16, ce qui contribue à augmenter le rendement global jusqu’à 20 fois. Mais ce n’est pas tout : l’association de la technologie NVIDIA® NVLink®, de la norme PCIe Gen4, des solutions de mise en réseau NVIDIA Mellanox® et du kit de développement NVIDIA Magnum IO™ vous permet d’interconnecter plusieurs milliers de GPU pour bénéficier d’une puissance de calcul phénoménale.
Les cœurs Tensor et la technologie MIG permettent au GPU NVIDIA A30 de traiter une grande variété de charges de travail tout au long de la journée, et ce de manière totalement dynamique. A30 peut prendre en charge l’intégralité des inférences quand les demandes de production sont les plus élevées, tandis que seule une partie des ressources du GPU peut être mise à profit pour entraîner les modèles d’IA pendant les heures creuses.
NVIDIA a enregistré des performances record dans MLPerf, le premier benchmark d’IA pour l’entraînement à faire autorité dans toute l’industrie.