Le registre de conteneurs NGC vous donne accès à un catalogue exhaustif de conteneurs IA accélérés par GPU optimisés, testés et prêts à l’emploi pour une utilisation sur site ou dans le Cloud avec les GPU NVIDIA compatibles. Les conteneurs IA de NVIDIA GPU Cloud, qui incluent les principales solutions logicielles de l’industrie comme TensorFlow, PyTorch, MXNet ou NVIDIA TensorRT™, fournissent un maximum de performance et de polyvalence pour relever les projets les plus ambitieux grâce au potentiel incomparable de l’IA avec NVIDIA. Les chercheurs et les data scientists peuvent ainsi configurer, entraîner et déployer rapidement des modèles IA avancés tout en répondant aux besoins évolutifs des projets Deep Learning de nouvelle génération.
Le registre de conteneurs NGC comprend les meilleurs logiciels tirant profit de l’accélération GPU pour la science des données, l’apprentissage automatique et l’analyse de données. Cette puissante solution logicielle pour la science des données permet d’exécuter des procédures d’entraînement sur GPU de bout en bout - ce qui réduit la durée de l’entraînement de plusieurs jours à quelques minutes.
Obtenez plus d’informations sur les principaux frameworks de Deep Learning optimisés par NGC comme TensorFlow, PyTorch, MXnet, Theano, Caffe2 ou Microsoft Cognitive Toolkit (CNTK).
NVIDIA GPU Cloud vous permet de déployer des frameworks de Deep Learning optimisés pour le calcul sur GPU, directement sur site ou dans le Cloud. Découvrez comment exploiter dès aujourd’hui NGC et Amazon Elastic Compute Cloud (Amazon EC2).
L’enregistrement vous donne accès gratuitement à un catalogue complet de conteneurs logiciels entièrement intégrés et optimisés pour le Deep Learning.
Les conteneurs sont accessibles à tous les utilisateurs possédant un compte NGC. Le compte permet de télécharger et d’utiliser, sur les plateformes compatibles, les dernières versions de nos conteneurs logiciels spécialement optimisés pour l’accélération GPU.
Chaque conteneur comprend la solution logicielle NVIDIA GPU Cloud ainsi qu’une pile de logiciels pré-intégrés et optimisés pour le Deep Learning sur les GPU NVIDIA. Les conteneurs incluent par ailleurs un système d’exploitation Linux, l’environnement d’exécution CUDA, les bibliothèques requises et l’application ou le framework sélectionné (TensorFlow, NVCaffe, NVIDIA DIGITS, etc.) - tous conçus pour fonctionner immédiatement et conjointement sans configuration complémentaire.
Le registre de conteneurs NGC inclut des versions accélérées par GPU des principaux frameworks de l’industrie : NVCaffe, Caffe2, Microsoft Cognitive Toolkit (CNTK), NVIDIA DIGITS, MXNet, PyTorch, TensorFlow, Theano, Torch, CUDA (pour développeurs).
Les conteneurs ont été conçus, testés et certifiés par NVIDIA pour les systèmes de la gamme NVIDIA DGX™, les cartes graphiques NVIDIA TITAN (à architecture NVIDIA Volta et NVIDIA Pascal™), les accélérateurs NVIDIA Quadro GV100, GP100 et P6000, et les GPU NVIDIA dans le Cloud avec Alibaba, Amazon, Google, Microsoft et Oracle.
Oui. Nos Conditions d’utilisation autorisent l’exécution des conteneurs NGC pour le Deep Learning sur un PC de bureau équipé d’une carte graphique à architecture Volta ou Pascal.
Les conteneurs NGC pour le Deep Learning ont été conçus pour être utilisés sur des GPU NVIDIA à architecture Volta ou Pascal™. Les fournisseurs de services Cloud qui figurent au programme NGC fournissent plusieurs types d’instance pour l’exécution des conteneurs NGC. Pour exécuter vos conteneurs, vous devez sélectionner le type d’instance qui vous convient, instancier le fichier-image approprié puis accéder aux conteneurs NGC à partir de cette image. Les étapes de configuration peuvent varier suivant chaque fournisseur de services Cloud. Vous pouvez retrouver les instructions détaillées relatives à chaque fournisseur dans les ressources documentaires de NVIDIA GPU Cloud.
Des mises à jour sont proposées chaque mois. Les conteneurs de Deep Learning sur NGC tirent parti du programme de recherche et de développement mené par NVIDIA en collaboration avec les équipes d’ingénierie de chaque framework, de manière à fournir les meilleures performances possibles. Les ingénieurs de NVIDIA optimisent continuellement l’environnement logiciel avec des mises à jour mensuelles qui garantissent un excellent retour sur investissement.
Tous les utilisateurs de NGC peuvent accéder aux forums de développement NVIDIA DevTalk https://devtalk.nvidia.com, qui regroupent une vaste communauté d’experts du Deep Learning et du développement GPU (clients, utilisateurs, partenaires et collaborateurs de NVIDIA).
NVIDIA cherche à accélérer l’avènement des technologies IA en fournissant aux chercheurs et aux développeurs un accès simplifié à des frameworks de Deep Learning accélérés par GPU et optimisés pour une utilisation en local ou dans le Cloud avec des GPU NVIDIA.
L’accès au registre de conteneurs NGC, entièrement gratuit, est soumis au respect de nos Conditions d’utilisation. Chaque fournisseur de services Cloud propose cependant une tarification spécifique pour ses solutions de calcul accéléré.
Veuillez consulter https://ngc.nvidia.com/legal/terms