GPU NVIDIA A30 Tensor Core

Accélération polyvalente du calcul informatique pour les serveurs d’entreprise généralistes.

Accélération des inférences basées sur l’IA et du calcul généraliste pour toutes les entreprise

Accélérez les charges de travail de toutes les entreprises grâce au GPU NVIDIA A30 Tensor Core à hautes performances. Reposant sur les puissants cœurs Tensor de l’architecture NVIDIA Ampere ainsi que sur la technologie MIG de GPU multi-instances, le GPU A30 fournit des gains de performance significatifs pour traiter plus efficacement une grande variété de charges de travail qui incluent les workflows d’inférence évolutifs basés sur l’IA et les applications de calcul haute performance (HPC). Doté d’une bande passante mémoire ultra-rapide et d’une faible consommation énergétique ainsi que d’un facteur de forme PCIe optimisé pour les serveurs généralistes, A30 permet de mettre en œuvre des Data Centers élastiques et offre un excellent retour sur investissement aux entreprises qui en font l’acquisition.

Solution de Data Center à hautes performances pour les infrastructures modernes

L’architecture NVIDIA Ampere est un composant essentiel de la plateforme unifiée NVIDIA EGX™, regroupant un ensemble complet de solutions matérielles et logicielles, de systèmes de mise en réseau, de bibliothèques, de modèles d’IA et d’applications optimisées disponibles via le catalogue NVIDIA NGC™. Dédiée à l’IA et au HPC, cette plateforme de bout en bout pour Data Center est la plus puissante du marché. Les chercheurs du monde entier peuvent ainsi aboutir plus rapidement à des résultats concrets et déployer des solutions de production hautement évolutives.

Entraînement Deep Learning

Rendement d’entraînement des modèles d’IA jusqu’à 3 fois plus important qu’avec le GPU V100 et 6 fois plus élevé qu’avec le GPU T4

NVIDIA A30 Tensor Core avec Tensor Float (TF32)

Les modèles d’IA, qui gagnent en complexité alors que surgissent des défis tels que la conception de nouvelles applications d’IA conversationnelle, nécessitent une évolutivité et une puissance de calcul chaque jour plus importantes.

Les cœurs Tensor des GPU A30 ainsi que leurs capacités de calcul de niveau TF32 (Tensor Float 32) vous offrent, sans changement du code-source, des performances jusqu’à 10 fois plus élevées par rapport au GPU NVIDIA T4 et un rendement doublé grâce à la technologie NVIDIA de précision mixte automatique ainsi qu’à la prise en charge des calculs FP16, ce qui contribue à augmenter le rendement global jusqu’à 20 fois. Mais ce n’est pas tout : l’association de la technologie NVIDIA® NVLink®, de la norme PCIe Gen4, des solutions de mise en réseau NVIDIA Mellanox® et du kit de développement NVIDIA Magnum IO™ vous permet d’interconnecter plusieurs milliers de GPU pour bénéficier d’une puissance de calcul phénoménale. 

Les cœurs Tensor et la technologie MIG permettent au GPU NVIDIA A30 de traiter une grande variété de charges de travail tout au long de la journée, et ce de manière totalement dynamique. A30 peut prendre en charge l’intégralité des inférences quand les demandes de production sont les plus élevées, tandis que seule une partie des ressources du GPU peut être mise à profit pour entraîner les modèles d’IA pendant les heures creuses.

NVIDIA a enregistré des performances record dans MLPerf, le premier benchmark d’IA pour l’entraînement à faire autorité dans toute l’industrie. 

Inférence Deep Learning

Le GPU A30 comporte des fonctionnalités révolutionnaires qui optimisent les charges de travail d’inférence. Il délivre par ailleurs une polyvalence sans précédent qui permet d’améliorer les performances de calcul à tous les niveaux de précision (de FP64 à TF32 en passant par INT4). NVIDIA A30, qui peut prendre en charge jusqu’à quatre instances MIG, permet à plusieurs réseaux de fonctionner en simultané via des partitions matérielles sécurisées avec une qualité de service garantie. La technologie de dispersion structurelle fournit quant à elle près de 2 fois plus de performances de calcul ainsi que de nombreux gains de performance pour l'inférence.  

Avec des modèles d’IA conversationnelle de pointe, le GPU A30 accélère jusqu’à 3 fois le débit des inférences en temps réel par rapport au GPU NVIDIA V100 Tensor Core de génération précédente. 

Pour les modèles de classification d’images en temps réel (qui nécessitent une latence inférieure à 7 ms), A30 accélère le débit jusqu’à 7 fois par rapport au GPU NVIDIA T4.

NVIDIA fournit déjà des performances d’IA à la pointe de l’industrie, comme l’illustrent les scores enregistrés dans le benchmark MLPerf Inference. Combiné au serveur d’inférence NVIDIA Triton™, qui permet de déployer des applications d’IA en toute évolutivité, le GPU A30 contribue à consolider ce leadership en fournissant des performances de calcul incomparables à toutes les entreprises. 

Rendement d’inférence des modèles d’IA jusqu’à 3 fois plus élevé qu’avec le GPU V100 pour l’IA conversationnelle en temps réel

Plateforme d’inférence de NVIDIA pour le Deep Learning

Rendement d’inférence des modèles d’IA jusqu’à 3 fois plus élevé par rapport au T4 pour la classification d’images en temps réel

Plateforme d’inférence de NVIDIA pour le Deep Learning

Calcul haute performance

Rendement du HPC jusqu’à 1,1 fois plus important qu’avec le GPU V100 et 8 fois plus élevé qu’avec le GPU T4

NVIDIA A30 permet d’exécuter des calculs FP64 en double précision

Pour réaliser de nouvelles découvertes scientifiques, les chercheurs ont aujourd’hui recours à des simulations avancées qui les aident à mieux comprendre le monde qui nous entoure.

Grâce aux cœurs Tensor de l’architecture Ampere pour les calculs FP64, le GPU NVIDIA A30 constitue l’avancée technologique la plus importante depuis la mise en œuvre des GPU pour le calcul haute performance. Armés de 24 Go de mémoire GPU et d’une bande passante de 933 Go/s, les chercheurs peuvent réaliser plus rapidement des calculs en double précision. Les applications HPC peuvent désormais tirer parti des capacités de calcul TF32 du GPU A30 pour accélérer les opérations de multiplication matricielle en simple précision.

La combinaison des cœurs Tensor FP64 et de la technologie MIG permet aux établissements de recherche de partitionner le GPU en toute sécurité afin de permettre à plusieurs chercheurs d’accéder aux ressources de calcul avec une qualité de service garantie et une utilisation maximale du GPU. Les entreprises qui déploient l’IA peuvent utiliser les capacités d’inférence du GPU NVIDIA A30 en période de pointe, puis reconfigurer dynamiquement les serveurs de calcul pour exécuter des charges de travail de HPC ou d’entraînement IA pendant les heures creuses. 

Analyse de données à hautes performances

Les data scientists doivent pouvoir analyser, visualiser et transformer leurs jeux de données en ressources exploitables avec un maximum d’efficacité. Les solutions Scale-Out existantes tendent malheureusement à ralentir le rendement car les jeux de données sont hébergés sur plusieurs serveurs. 

Avec une importante mémoire HBM2 dédiée et une bande passante ultraperformante qui s’élève à 933 Go/s, sans oublier des capacités d’évolutivité incomparables grâce à NVLink, les serveurs accélérés par les GPU A30 fournissent la puissance de calcul requise pour traiter les charges de travail les plus intenses. Associée à la technologie InfiniBand, au SDK NVIDIA Magnum IO et à la suite de bibliothèques logicielles open-source RAPIDS™ (qui inclut le module d’accélération RAPIDS pour l’analyse de données sur GPU avec Apache Spark), la nouvelle plateforme pour Data Center de NVIDIA a été spécialement conçue pour accélérer vos workflows de manière significative avec des performances et une efficacité sans précédent.

Analyse de données accélérée par les GPU de NVIDIA

Analyse de données à hautes performances

Analyse de données accélérée par les GPU de NVIDIA

Les data scientists doivent pouvoir analyser, visualiser et transformer leurs jeux de données en ressources exploitables avec un maximum d’efficacité. Les solutions Scale-Out existantes tendent malheureusement à ralentir le rendement car les jeux de données sont hébergés sur plusieurs serveurs. 

Avec une importante mémoire HBM2 dédiée et une bande passante ultraperformante qui s’élève à 933 Go/s, sans oublier des capacités d’évolutivité incomparables grâce à NVLink, les serveurs accélérés par les GPU A30 fournissent la puissance de calcul requise pour traiter les charges de travail les plus intenses. Associée à la technologie InfiniBand, au SDK NVIDIA Magnum IO et à la suite de bibliothèques logicielles open-source RAPIDS™ (qui inclut le module d’accélération RAPIDS pour l’analyse de données sur GPU avec Apache Spark), la nouvelle plateforme pour Data Center de NVIDIA a été spécialement conçue pour accélérer vos workflows de manière significative avec des performances et une efficacité sans précédent.

En savoir plus sur l’analyse de données ›

Conçu pour une utilisation en entreprise

A30 et la technologie de GPU multi-instances (MIG) maximisent comme jamais l’utilisation des infrastructures accélérées par GPU

A30 et la technologie de GPU multi-instances (MIG) maximisent comme jamais l’utilisation des infrastructures accélérées par GPU. MIG permet de partitionner un GPU A30 en quatre instances distinctes de manière sécurisée, permettant ainsi à de multiples utilisateurs d'accéder à tous les avantages de l’accélération GPU.

Entièrement compatible avec la plateforme Kubernetes, les systèmes de conteneurs et les solutions de virtualisation de serveur basées sur un hyperviseur, la technologie MIG permet aux gestionnaires d’infrastructure de mettre en œuvre des GPU parfaitement calibrés pour chaque tâche avec une qualité de service optimale, ce qui simplifie l’accès aux ressources de calcul pour tous les utilisateurs.

NVIDIA AI Enterprise

NVIDIA AI Enterprise est une suite logicielle d’IA et d’analyse de données de bout en bout native pour le Cloud, qui a été conçue par NVIDIA pour une exécution sur VMware vSphere avec un GPU A30 dans les environnements de virtualisation basés sur un hyperviseur. Cette plateforme à haut degré d’innovation facilite la gestion et la mise à l’échelle des charges de travail d’IA dans les Clouds hybrides modernes. 

Systèmes NVIDIA certifiés pour le calcul généraliste

Assemblés et vendus par les partenaires OEM de NVIDIA, les systèmes NVIDIA certifiés™ équipés d’un GPU NVIDIA A30 associent une accélération significative du calcul informatique et des technologies sécurisées de mise en réseau à haute vitesse au sein de Data Centers d’entreprise axés sur l’innovation. Ce programme de certification permet aux clients d’identifier, d’acquérir et de déployer des systèmes pour exécuter des applications d’IA modernes ou traditionnelles à partir du catalogue NVIDIA NGC sur une infrastructure unique à hautes performances, à la fois rentable et évolutive.

Spécifications du GPU A30 Tensor Core

FP64 5,2 TFlops
FP64 Tensor Core 10,3 TFlops
FP32 10,3 TFlops
TF32 Tensor Core 82 TFlops | 165 TFlops*
BFLOAT16 Tensor Core 165 TFlops | 330 TFlops*
FP16 Tensor Core 165 TFlops | 330 TFlops*
INT8 Tensor Core 330 TOPs | 661 TOPs*
INT4 Tensor Core 661 TOPs | 1321 TOPs*
Moteurs de médias 1 accélérateur de flux optique (OFA)
1 décodeur JPEG (NVJPEG)
4 décodeurs vidéo (NVDEC)
Mémoire GPU 24 Go HBM2
Bande passante GPU 933 Go/s
Interconnexion PCIe Gen4 64 Go/s
NVLINK de 3e génération : 200 Go/s**
Configuration Dual-slot FHFL (Full-Height, Full-Length)
Enveloppe thermique (TDP) 165 W
GPU multi-instances (MIG) 4 instances GPU @ 6 Go chacune
2 instances GPU @ 12 Go chacune
1 instance GPU @ 24 Go
Prise en charge logicielle de NVIDIA vGPU NVIDIA AI Enterprise
NVIDIA Virtual Compute Server

Consultez les nouvelles données de benchmark MLPerf

Aperçu de l’architecture NVIDIA Ampere

Prenez connaissance des technologies de pointe de l’architecture NVIDIA Ampere.