Le portail de services, de logiciels et d’assistance pour l’IA, l’apprentissage automatique et le calcul haute performance.
NVIDIA NGC™ propose une collection de services Cloud entièrement gérés, notamment NeMo LLM, BioNemo et Riva Studio pour NLU et les solutions d’IA vocale. Les experts en IA peuvent tirer parti de NVIDIA Base Command pour entraîner les modèles, de NVIDIA Fleet Command pour gérer les modèles et le registre privé NGC pour partager en toute sécurité des logiciels d’IA propriétaires. NGC héberge par ailleurs un catalogue de logiciels d’IA, de lits de développement et de notebooks Jupyter optimisés par GPU qui contribuent à accélérer les workflows d’IA et offrent une assistance via NVIDIA AI Enterprise.
Catalogue NGC : hub logiciel optimisé par GPU pour l’IA, l’apprentissage automatique et le HPC
Le catalogue NGC accélère les workflows d’entreprise de bout en bout grâce à des conteneurs dédiés, des modèles d’IA pré-entraînés et des kits de développement spécialisés qui peuvent être déployés sur site, dans le Cloud ou à l’Edge.
Petites et grandes entreprises nous font confiance
Des organismes gouvernementaux, des entreprises du classement Fortune 500, des sites de calcul intensif, des établissements d’enseignement supérieur et même des startups spécialisées dans l’IA utilisent les logiciels du catalogue NGC pour développer des applications de nouvelle génération.
Des centaines de conteneurs pour l’IA et le HPC
Des centaines de modèles pré-entraînés
Des centaines d’instances de notebooks Jupyter
Plus de 10 millions de téléchargements
Une plateforme adaptée à tous les cas d’utilisation.
Du HPC à l’IA conversationnelle en passant par l’imagerie médicale, les systèmes de recommandation et bien d’autres domaines, les collections NGC centralisent des conteneurs prêts à l’emploi, des modèles pré-entraînés, des kits de développement et des graphiques Helm pour de nombreux cas d’utilisation et industries afin d’accélérer le développement et le déploiement de vos applications.
Modélisation du langage
La modélisation du langage est une tâche de traitement automatique du langage naturel qui permet de déterminer la probabilité d’une séquence de mots donnée dans une phrase.
Les systèmes de recommandation sont un type de système de filtrage d’informations qui cherche à prévoir la "classification" ou la "préférence" qu’un utilisateur peut accorder à un objet.
La segmentation d’images est un domaine du traitement des images qui permet de séparer une image en plusieurs sous-groupes ou régions représentant des objets ou sous-parties distincts.
La détection d’objets consiste non seulement à détecter la présence et l’emplacement d’objets au sein d’images ou de vidéos, mais aussi à les catégoriser parmi les objets du quotidien.
Les systèmes de reconnaissance vocale (ASR) peuvent inclure les commandes vocales assignées à un assistant virtuel interactif, la conversion du son en sous-titres sur une vidéo en ligne et bien plus encore.
La synthèse vocale est la tâche qui consiste à produire artificiellement une parole humaine à partir de transcriptions brutes. Les modèles de synthèse vocale sont utilisés lorsqu’un appareil mobile convertit du texte sur une page Web en parole.
Le calcul haute performance (HPC) est l’un des plus importants outils permettant de faire avancer la science, et les diverses applications du calcul scientifique évoluent à une vitesse phénoménale.
Des conteneurs pour le Deep Learning mis à jour chaque mois pour vous faire bénéficier des performances maximales à partir de vos GPU aux modèles d’IA de pointe utilisés pour l’homologation des records de benchmarks par MLPerf, le catalogue NGC constitue un élément essentiel pour réduire votre délai d’accès aux solutions ainsi que les délais de mise sur le marché.
Avant d’être ajoutés au catalogue, les conteneurs sont soumis à des examens de sécurité rigoureux relatifs aux vulnérabilités et aux expositions courantes (CVE), aux clés cryptées, aux clés privées et aux métadonnées. Des évaluations de sécurité et des rapports d’analyse détaillés sont fournis pour chaque conteneur afin de déterminer s’il sera conforme à la politique de sécurité de votre entreprise.
Le registre privé NGC fournit aux utilisateurs un espace sécurisé dans le Cloud permettant de stocker des conteneurs, des modèles, des scripts de modèle et des graphiques Helm personnalisés au sein de leur entreprise. L’accès au registre privé NGC est ouvert aux utilisateurs ayant souscrit aux services d’assistance pour l’entreprise avec NVIDIA DGX™ ou NVIDIA-Certified Systems™.
Exécutez vos logiciels n’importe où, en toute confiance
Les logiciels du catalogue NGC sont exécutés sur des serveurs Bare-Metal, dans Kubernetes ou dans des environnements virtualisés. Ils peuvent être déployés sur site, dans le Cloud ou à l’Edge, ce qui permet de maximiser l’utilisation des GPU, mais aussi la portabilité et l’évolutivité des applications. Les utilisateurs peuvent gérer le cycle de vie de développement d’IA de bout en bout avec NVIDIA Base Command.
Sur site
Les logiciels du catalogue NGC sont compatibles avec une grande variété de plateformes accélérées par GPU qui incluent NVIDIA-Certified Systems, des systèmes NVIDIA DGX, des stations de travail équipées de NVIDIA TITAN et NVIDIA RTX™, et des environnements virtualisés avec NVIDIA Virtual Compute Server.
Dans le Cloud
Les logiciels du catalogue NGC peuvent être déployés sur des instances optimisées par GPU. Les logiciels peuvent être mis en œuvre directement sur des machines virtuelles (VM) ou sur les services Kubernetes proposés par les principaux fournisseurs de services Cloud (CSP). Les solutions logicielles de NVIDIA pour l’IA permettent aux entreprises de développer et de déployer plus facilement leurs solutions dans le Cloud.
Edge Computing
Alors que le calcul informatique se développe au-delà des Data Centers et jusqu'à l'Edge, vous pouvez déployer les ressources logicielles du catalogue NGC sur des systèmes Edge basés sur Kubernetes pour bénéficier d'une inférence à faible latence et à haut rendement. Déployez, gérez et faites évoluer en toute sécurité des applications d'IA à partir de NGC sur une infrastructure distribuée à l'Edge avec NVIDIA AI Enterprise.
Créez des applications d’IA plus rapidement avec NVIDIA TAO
NVIDIA TAO est un framework qui permet d’entraîner, d’adapter et d’optimiser des modèles d’IA afin de simplifier les procédures d’entraînement de jeux de données et d’expertise en matière d’IA, ce qui a pour effet de simplifier la création des applications et des services d’IA pour l’entreprise.
Le catalogue NGC vous donne accès à une large gamme de ressources qui répondent aux besoins des data scientists, des développeurs et des chercheurs avec des niveaux d’expertise variables concernant les conteneurs, les modèles pré-entraînés, les kits de développement spécifiques à un domaine, les collections basées sur des cas d’utilisation et les graphiques Helm pour une mise en œuvre plus rapide de l’IA.
COLLECTIONS
CONTENEURS
MODÈLES
NOTEBOOKS JUPYTER
GRAPHIQUES HELM
SOLUTIONS POUR L’INDUSTRIE
Déployez et exécutez plus rapidement vos charges de travail grâce aux conteneurs
Le catalogue NGC présente des conteneurs qui ont tous été soigneusement configurés, testés et optimisés par NVIDIA pour prendre en charge les principaux logiciels d’IA et de science des données. Des conteneurs logiciels spécifiquement testés pour les applications de calcul haute performance et d’analyse de données sont également disponibles, permettant ainsi aux utilisateurs de créer avec un contrôle total des solutions à partir d’un framework testé.
Mettez en œuvre vos solutions plus rapidement avec des workflows d’IA parés au déploiement
Le catalogue NGC se compose du kit d’outils NVIDIA TAO, du serveur d’inférence NVIDIA Triton™ et de NVIDIA TensorRT™ pour permettre aux développeurs et aux data scientists de ré-entraîner des modèles de Deep Learning, mais aussi de les optimiser et de les déployer facilement pour les opérations d’inférence.
Accélérez vos projets d’IA avec des modèles pré-entraînés
Prenez une longueur d’avance avec des modèles pré-entraînés, des scripts de code détaillés dotés d’instructions précises et des scripts d’aide pour une grande variété de tâches d’IA communes optimisées pour une exécution sur les GPU NVIDIA à cœurs Tensor. Vous pouvez facilement ré-entraîner vos modèles en mettant à jour uniquement quelques couches, ce qui vous permet d’économiser un temps précieux. Chaque modèle est fourni avec une fiche de synthèse qui inclut des détails sur le jeu de données utilisé pour entraîner le modèle, une documentation détaillée et des informations relatives aux limitations.
Créez plus rapidement des solutions d’IA avec tous les logiciels nécessaires
Les collections NGC facilitent la sélection des conteneurs, des modèles, des notebooks Jupyter et d’autres ressources compatibles pour démarrer plus rapidement avec l’IA. Chaque collection comprend en outre une documentation détaillée pour le déploiement de son contenu dans des cas d’utilisation spécifiques.
Le catalogue NGC vous donne accès à des collections prêtes à l’emploi pour divers champs d’application incluant le traitement automatique du langage naturel, la reconnaissance vocale, l’analyse vidéo intelligente et la détection d’objets.
Automatisez vos déploiements grâce aux graphiques Helm
Les graphiques Helm automatisent le déploiement logiciel sur des clusters Kubernetes. Le catalogue NGC héberge des graphiques Helm compatibles avec Kubernetes qui facilitent le déploiement régulier et sécurisé de logiciels NVIDIA comme de logiciels tiers.
NVIDIA GPU Operator inclut une suite de pilotes NVIDIA, un module d’exécution de conteneur, le plug-in de l’appareil et un logiciel de gestion que les équipes informatiques peuvent installer sur des clusters Kubernetes pour permettre aux utilisateurs d’accéder plus rapidement à leurs charges de travail.
Mettez en œuvre vos solutions plus rapidement avec des workflows d’IA parés au déploiement
Le catalogue NGC se compose du kit d’outils NVIDIA TAO, du serveur d’inférence NVIDIA Triton™ et de NVIDIA TensorRT™ pour permettre aux développeurs et aux data scientists de ré-entraîner des modèles de Deep Learning, mais aussi de les optimiser et de les déployer facilement pour les opérations d’inférence.
Découvrez comment DeepZen, une société d’IA spécialisée dans la reconnaissance vocale humaine émotionnelle, exploite le catalogue NGC dans l’optique d’automatiser les processus tels que l’enregistrement audio et le doublage.
Découvrez comment la startup Neurala spécialisée dans l’IA multiplie par huit la vitesse d’entraînement et d’inférence en Deep Learning de sa plateforme Brain Builder.
Découvrez comment les administrateurs en calcul haute performance de l’Université de Clemson ont mis en œuvre des conteneurs logiciels optimisés par GPU afin d’accélérer les projets de recherche de leurs équipes scientifiques.
Découvrez comment l’Université de l’Arizona utilise des conteneurs du catalogue NGC pour accélérer ses projets de recherche scientifique en créant des nuages de points 3D directement sur des drones.
Les partenaires de NVIDIA proposent des solutions innovantes pour la science des données, l’entraînement et l’inférence IA, le calcul haute performance (HPC) et la visualisation.
Découvrez comment publier vos logiciels optimisés pour l’accélération GPU dans le catalogue NGC.
Le catalogue NGC vous donne accès à un catalogue exhaustif de conteneurs pour l’IA, l’apprentissage automatique et le HPC, entièrement accélérés par GPU et préalablement optimisés, testés et prêts à l’emploi pour une utilisation sur site, dans le Cloud ou à l’Edge avec les GPU NVIDIA compatibles. NGC vous fournit par ailleurs des modèles pré-entraînés, des scripts et des solutions industrielles que vous pouvez intégrer très facilement à vos workflows existants.
La compilation et le déploiement de frameworks pour le Deep Learning est un processus chronophage qui peut engendrer des erreurs. L’optimisation des logiciels d’IA nécessite une expertise avancée. La mise en œuvre de modèles sur mesure requiert de l’expertise, du temps et des ressources de calcul. Le catalogue NGC vous aide à relever ces défis avec des logiciels et des outils optimisés par les GPU, que les data scientists, les développeurs, les services informatiques et les utilisateurs peuvent exploiter afin de se concentrer sur la mise en œuvre de leurs solutions.
Chaque conteneur inclut un ensemble pré-intégré de logiciels accélérés par GPU. Cette pile logicielle inclut l’application ou le framework de votre choix, le kit d’outils NVIDIA CUDA®, des bibliothèques accélérées matériellement et tous les pilotes nécessaires ; tous conçus et testés pour fonctionner immédiatement et conjointement sans configuration complémentaire.
Le catalogue NGC inclut les principaux logiciels d’IA comme TensorFlow, PyTorch, MxNet, NVIDIA TensorRT, RAPIDS™ et bien d’autres. Parcourez le catalogue NGC pour prendre connaissance de la liste complète.
Vous pouvez exécuter les conteneurs du catalogue NGC via des PC de bureau, des stations de travail, des clusters HPC ou des systèmes NVIDIA DGX, sur des GPU NVIDIA avec les fournisseurs agréés de services Cloud ou directement sur NVIDIA-Certified Systems. Les conteneurs sont exploitables dans les environnements d’exécution Docker et Singularity. Consultez la documentation de NGC pour de plus amples informations.
NVIDIA fournit des fichiers d’image de machine virtuelle (VMI) dans la boutique en ligne de chaque fournisseur agréé de services Cloud. Pour exécuter un conteneur NGC, il vous suffit de choisir le type d’instance approprié, de lancer l’image NGC et d’y intégrer votre conteneur à partir du catalogue NGC. Les étapes exactes varient selon les fournisseurs de services Cloud, mais vous trouverez des instructions détaillées dans la documentation de NGC.
Les logiciels de Deep Learning les plus populaires comme TensorFlow, PyTorch et MXNet sont mis à jour chaque mois par les ingénieurs de NVIDIA afin d’optimiser la pile logicielle et de tirer le meilleur parti de vos GPU NVIDIA.
L’accès au catalogue NGC, entièrement gratuit, est soumis au respect de nos Conditions d’utilisation. Cependant, pour une exécution dans le Cloud, chaque fournisseur de services Cloud propose ses propres tarifs relatifs aux instances de calcul sur GPU.
Le registre privé NGC a été développé pour fournir aux utilisateurs un espace sécurisé permettant de stocker et de partager des conteneurs, des modèles, des scripts de modèle et des graphiques Helm personnalisés au sein de leur entreprise. Ce système de registre privé leur permet de protéger leurs propriétés intellectuelles tout en renforçant la collaboration.
Tous les utilisateurs du catalogue NGC peuvent accéder aux forums de développement NVIDIA, qui regroupent une vaste communauté d’experts de l’IA et du développement GPU (clients, utilisateurs, partenaires et collaborateurs de NVIDIA).
Les services d’assistance NVIDIA NGC fournissent par ailleurs une prise en charge L1-L3 sur NVIDIA-Certified Systems, accessibles via nos revendeurs OEM.
NVIDIA-Certified Systems, comprenant des plateformes NVIDIA EGX™ et HGX™, permettent aux entreprises de choisir en toute confiance des solutions matérielles et logicielles à hautes performances qui exécutent leurs charges de travail d’IA de manière sécurisée et optimale, aussi bien dans des configurations plus petites qu’à grande échelle. Consultez la liste complète des NVIDIA-Certified Systems.