NGC bietet eine Reihe von Cloud-Diensten, darunter NVIDIA NeMo , BioNemo und Riva Studio für generative KI, Medikamentenentwicklung und Sprach-KI-Lösungen, und die NGC Private Registry für das sichere Teilen von proprietärer KI-Software.
NVIDIA NGC™ ist das Portal für Enterprise-Dienste, Software, Verwaltungstools und Unterstützung für End-to-End-KI und digitale Zwillings-Workflows. Bringen Sie Ihre Lösungen mit vollständig verwalteten Diensten schneller auf den Markt oder nutzen Sie die Vorteile von leistungsoptimierter Software, um Lösungen auf Ihren bevorzugten Cloud-, lokalen oder Edge-Systemen zu erstellen und bereitzustellen.
NGC bietet eine Reihe von Cloud-Diensten, darunter NVIDIA NeMo , BioNemo und Riva Studio für generative KI, Medikamentenentwicklung und Sprach-KI-Lösungen, und die NGC Private Registry für das sichere Teilen von proprietärer KI-Software.
Der NGC-Katalog beschleunigt End-to-End-Workflows mit Containern der Enterprise-Klasse, vorab trainierten KI-Modellen und branchenspezifischen SDKs, die lokal, in der Cloud oder in der Peripherie bereitgestellt werden können.
Das KI-Framework und SDK-Container werden ständig optimiert und monatlich veröffentlicht, um die Zeit bis zur Lösung zu verkürzen.
Mit hochmodernen vortrainierten Modellen können Sie benutzerdefinierte Modelle für Computer Vision, Sprach-KI und mehr schneller erstellen.
Mit Hunderten von Jupyter-Notebooks können Sie Modelle schneller verstehen, anpassen, testen und erstellen, während Sie von Best Practices profitieren.
Container werden monatlichen Sicherheitsüberprüfungen und detaillierten Berichten unterzogen, um sicherzustellen, dass die Container den Sicherheitsrichtlinien Ihres Unternehmens entsprechen.
Testen Sie die Modelle direkt über Ihren Browser, integrieren Sie sie mithilfe von APIs in Ihre Anwendungen oder laden Sie sie herunter und führen Sie sie auf Ihrem Windows-Computer aus – ganz ohne Einrichtung.
Von HPC über Gesprächs-KI bis hin zu medizinischer Bildgebung und Empfehlungsdiensten und vielem mehr: NGC Collections bietet sofort einsatzbereite Container, vorab trainierte Modelle, SDKs und Helm-Charts für verschiedene Anwendungsfälle und Branchen – an einem Ort, um Ihren Anwendungsentwicklungs- und Bereitstellungsprozess zu beschleunigen.
Sprachmodellierung ist eine Aufgabe bei der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP), mit der die Wahrscheinlichkeit einer vorgegebenen Wortsequenz in einem Satz bestimmt wird.
Empfehlungsdienste sind eine Art Informationsfiltersystem, das versucht, die "Bewertung" oder "Präferenz" vorherzusagen, die ein Benutzer einem Element geben würde.
Bildsegmentierung ist das Feld der Bildverarbeitung, bei dem es darum geht, ein Bild in mehrere Untergruppen oder Regionen zu unterteilen, die besondere Objekte oder Teilbereiche darstellen.
Maschinelle Übersetzung ist die Aufgabe des Übersetzens von Text aus einer Sprache in eine andere.
Bei der Objekterkennung geht es nicht nur darum, das Vorhandensein und den Ort von Objekten in Bildern und Videos zu erkennen, sondern sie auch in alltägliche Objekte zu kategorisieren.
Zu den Systemen der automatischen Spracherkennung (Automatic Speech Recognition, ASR) gehören die Bereitstellung von Sprachbefehlen für einen interaktiven virtuellen Assistenten, die Umwandlung von Audio in Untertitel in einem Onlinevideo und vieles mehr.
Sprachsynthese oder Text–zu-Sprache ist die Aufgabe des künstlichen Erzeugens von menschlicher Sprache aus Transkripten. Text-zu-Sprache-Modelle werden verwendet, wenn ein Mobilgerät Text auf einer Webseite in Sprache umwandelt.
High Performance Computing (HPC) ist eines der wichtigsten Werkzeuge, die die Computerwissenschaft voranbringen. Und dieses Universum der wissenschaftlichen Berechnungen hat sich in alle Richtungen ausgedehnt.
NVIDIA AI Enterprise ist eine durchgängige, sichere Cloud-native Suite aus KI-Software, mit der Unternehmen neue Herausforderungen lösen und gleichzeitig die betriebliche Effizienz steigern.
Profitieren Sie von Software-Containern, die monatlich überprüft werden, um Sicherheitsbedenken auszuräumen, und von KI-Modellen, die Details zu Bias, Erklärbarkeit, Sicherheit und Datenschutz bereitstellen.
Beschleunigen Sie die Zeit bis zur Produktion mit zusammengestellten Lösungen, die KI-Frameworks, vortrainierte Modelle, Helm-Charts, Jupyter-Notebooks und vieles mehr umfassen.
Erstellen Sie KI-Lösungen und verwalten Sie den Lebenszyklus von KI-Anwendungen mit weltweitem Unternehmenssupport, der sicherstellt, dass Ihre geschäftskritischen Projekte auf Kurs bleiben.
Software aus dem NGC-Katalog kann auf Bare-Metal-Servern, Kubernetes oder in virtualisierten Umgebungen ausgeführt und lokal, in der Cloud oder im Edge bereitgestellt werden. Sie maximiert so die Auslastung von Grafikprozessoren sowie die Portabilität und Skalierbarkeit von Anwendungen. Benutzer können den gesamten Lebenszyklus der KI-Entwicklung mit NVIDIA Base Command verwalten.
Die Software des NGC-Katalogs läuft auf einer Vielzahl von GPU-beschleunigten Plattformen von NVIDIA, einschließlich NVIDIA-zertifizierter Systeme, NVIDIA DGX-Systeme, Workstations mit NVIDIA TITAN und NVIDIA RTX™ sowie virtueller Umgebungen mit NVIDIA Virtual Compute Server.
Software aus dem NGC-Katalog kann auf GPU-gestützten Instanzen bereitgestellt werden. Die Software kann direkt auf virtuellen Maschinen (VMs) oder auf Kubernetes-Diensten bereitgestellt werden, die von großen Clouddienstleistern (CSPs) angeboten werden. KI-Software von NVIDIA macht es Unternehmen leicht, ihre Lösungen in der Cloud zu entwickeln und bereitzustellen.
Da sich das Computing über Rechenzentren hinaus bis zum Edge-Bereich ausdehnt, kann die Software aus dem NGC-Katalog auf Kubernetes-basierenden, modernsten Systemen für Inferenzen mit niedriger Latenz und hohem Durchsatz bereitgestellt werden. Mit NVIDIA AI Enterprise können Sie KI-Anwendungen von NGC über verteilte Edge-Infrastrukturen hinweg sicher bereitstellen, verwalten und skalieren.
Der NGC-Katalog bietet eine Reihe von Ressourcen, die die Anforderungen von Datenwissenschaftlern, Entwicklern und Forschern mit unterschiedlichem Know-how erfüllen. Hierzu gehören Container, vorab trainierte Modelle, domänenspezifische SDKs, anwendungsfallbasierte Sammlungen und Helm-Charts für die schnellsten KI-Implementierungen.
Der NGC-Katalog enthält das NVIDIA TAO Toolkit, NVIDIA Triton™ Inference Server und NVIDIA TensorRT™, die es Entwicklern von Deep-Learning-Anwendungen und Datenwissenschaftlern ermöglichen, Deep-Learning-Modelle neu zu trainieren und sie einfach für die Inferenz zu optimieren und bereitzustellen.
Der NGC-Katalog hostet Container für die wichtigste KI- und Datenwissenschaftssoftware, die von NVIDIA abgestimmt, getestet und optimiert wurde. Außerdem sind vollständig getestete Container für HPC-Anwendungen und Datenanalysen verfügbar, sodass Benutzer Lösungen aus einem getesteten Framework mit vollständiger Kontrolle erstellen können.
The NGC catalog hosts pretrained GPU-optimized models for a variety of common AI tasks that developers can use as-is or retrain them easily, thus saving valuable time in bringing solutions to market. Each model comes with a model resume outlining the architecture, training details, datasets used, and limitations. The AI playground enables developers to experience the models directly in their browsers, integrate them into applications using APIs or download and run them on Windows machines with RTX GPUs.
Mit Sammlungen lassen sich kompatible Framework-Container, Modelle, Juptyer Notebooks und weitere Ressourcen ganz einfach entdecken, um schneller mit KI zu starten. Die jeweiligen Sammlungen enthalten zudem detaillierte Dokumentationen zur Bereitstellung der Inhalte für bestimmte Anwendungsfälle.
Der NGC-Katalog bietet sofort einsatzbereite Sammlungen für verschiedene Anwendungen, darunter NLP, ASR, intelligente Videoanalysen und Objekterkennung.
Helm-Charts automatisieren die Softwarebereitstellung auf Kubernetes-Clustern. Der NGC-Katalog hostet Kubernetes-fähige Helm-Charts, die eine konsistente und sichere Bereitstellung von Software von NVIDIA und Drittanbietern vereinfachen.
NVIDIA GPU Operator ist eine Suite von NVIDIA-Treibern, Container-Laufzeit, Geräte-Plug-ins und Verwaltungssoftware, die IT-Teams in Kubernetes-Clustern installieren können, um Benutzern schnelleren Zugriff auf ihre Workloads zu ermöglichen.
Der NGC-Katalog enthält das NVIDIA TAO Toolkit, NVIDIA Triton™ Inference Server und NVIDIA TensorRT™, die es Entwicklern von Deep-Learning-Anwendungen und Datenwissenschaftlern ermöglichen, Deep-Learning-Modelle neu zu trainieren und sie einfach für die Inferenz zu optimieren und bereitzustellen.
Erfahren Sie, wie DeepZen, KI-Unternehmen mit Schwerpunkt menschenähnliche Sprache mit Emotionen, den NGC-Katalog nutzt, um Prozesse wie Audioaufnahmen und Voiceovers zu automatisieren.
Erfahren Sie, wie das KI-Start-up-Unternehmen Neurala Deep-Learning-Training und -Inferenz für seine Brain Builder-Plattform um das 8-Fache beschleunigt.
Erfahren Sie, wie HPC-Administratoren an der Clemson University GPU-optimierte Container unterstützen, um Wissenschaftlern bei der Beschleunigung ihrer Forschung zu helfen.
Erfahren Sie, wie die University of Arizona Container aus dem NGC-Katalog einsetzt, um ihre wissenschaftliche Forschung zu beschleunigen, indem sie 3D-Point-Clouds direkt auf Drohnen erstellen.
Beschleunigen Ihres Workflows mit dem NGC-Katalog
NVIDIA-Partner bieten eine Reihe von Lösungen für Datenwissenschaft, KI-Training und -Inferenz, High Performance Computing (HPC) und Visualisierung.
Erfahren Sie, wie Sie Ihre GPU-optimierte Software im NGC-Katalog veröffentlichen können.
Lesen Sie mehr über die neuesten Updates und Ankündigungen des NGC-Katalogs.
In diesen Video-Tutorials erfahren Sie, wie Sie den NGC-Katalog verwenden können.
Sehen Sie sich alle wichtigen NGC-Sitzungen on demand an.
In diesen Schritt-für-Schritt-Anleitungen erfahren Sie, wie Sie den NGC-Katalog verwenden können.
Der NGC-Katalog bietet eine umfangreiche Sammlung an GPU-optimierten Containern für KI, maschinelles Lernen und HPC, die getestet und auf NVIDIA-Grafikprozessoren lokal, in der Cloud oder in der Peripherie umgehend einsetzbar sind. Darüber hinaus bietet der Katalog vorab trainierte Modelle, Modellskripts und Branchenlösungen, die sich einfach in vorhandene Workflows integrieren lassen.
Das Kompilieren und Bereitstellen von Deep Learning-Frameworks ist zeitaufwendig und fehleranfällig. Die Optimierung von KI-Software erfordert Know-how. Für die Erstellung von Modellen sind Know-how, Zeit und Rechenressourcen erforderlich. Der NGC-Katalog kümmert sich um diese Herausforderungen mit grafikprozessoroptimierter Software und Tools, sodass sich Datenwissenschaftler, Entwickler, IT und Nutzer auf die Entwicklung ihrer Lösungen konzentrieren können.
Jeder Container verfügt über einen vorab integrierten Satz von grafikprozessorbeschleunigter Software. Der Stack umfasst die ausgewählte Anwendung oder das Framework, das NVIDIA CUDA®-Toolkit, beschleunigte Bibliotheken und andere erforderliche Treiber, die alle getestet und optimiert wurden, sodass sie sofort ohne zusätzliches Setup zusammenarbeiten können.
Der NGC-Katalog umfasst erstklassige KI-Software, einschließlich TensorFlow, PyTorch, MxNet, NVIDIA TensorRT, RAPIDS™ und vieles mehr. Entdecken Sie im NGC-Katalog die vollständige Liste.
Die NGC-Container werden auf PCs, Workstations, HPC-Clustern, NVIDIA DGX-Systemen, auf NVIDIA-Grafikprozessoren unterstützter Cloud-Anbieter und in NVIDIA-zertifizierten Systemen ausgeführt. Die Container werden in Docker- und Singularity-Laufzeitumgebungen ausgeführt. Weitere Informationen finden Sie in der NGC-Dokumentation.
NVIDIA bietet Image-Dateien für virtuelle Maschinen im Marketplace-Bereich jedes unterstützten Cloud-Service-Anbieters an. Um einen NGC-Container auszuführen, wählen Sie einfach den entsprechenden Instanztyp, führen Sie das NGC-Image aus und ziehen Sie den Container aus dem NGC-Katalog hinein. Die genauen Schritte variieren je nach Cloud-Anbieter, aber Sie finden eine Schritt-für-Schritt-Anleitung in der NGC-Dokumentation.
Die beliebteste Deep-Learning-Software, wie TensorFlow, PyTorch und MXNet, wird monatlich von NVIDIA-Technikern aktualisiert, um den gesamten Software-Stack zu optimieren und Ihre NVIDIA-Grafikprozessoren bestmöglich zu nutzen.
Die Container aus dem NGC-Katalog können kostenfrei heruntergeladen werden (gemäß den Nutzungsbedingungen). Für die Ausführung in der Cloud verfügt jeder Cloud-Service-Anbieter jedoch über seine eigenen Preise für GPU-Recheninstanzen.
Nein, es ist ein Portal für die Bereitstellung GPU-optimierter Software sowie von Enterprise-Services und Software.
Die NGC Private Registry wurde entwickelt, um Nutzern einen sicheren Raum zu bieten, um benutzerdefinierte Container, Modelle, Modellskripte und Helm-Charts innerhalb des Unternehmens zu speichern und zu teilen. Mit der Private Registry können Nutzer ihre IP-Adressen schützen und gleichzeitig die Zusammenarbeit fördern.
Die Nutzer haben Zugriff auf das NVIDIA Developer Forum. Zur großen Community dieses Forums gehören KI- und Grafikprozessorexperten, die Kunden, Partner oder Mitarbeiter von NVIDIA sind.
Darüber hinaus bieten NGC-Supportdienste Unterstützung auf den Ebenen L1 bis L3 für NVIDIA-zertifizierte Systeme, die über unsere OEM-Partner verfügbar sind.
NVIDIA-zertifizierte Systeme, die aus NVIDIA EGX™- und HGX-Plattformen™ bestehen, ermöglichen es Unternehmen, bedenkenlos leistungsoptimierte Hardware- und Softwarelösungen auszuwählen, die ihre KI-Workloads sicher und optimal ausführen – sowohl in kleineren Konfigurationen als auch in großem Umfang. Sehen Sie sich die vollständige Liste der NVIDIA-zertifizierten Systeme an.
Weitere Informationen finden Sie unter https://ngc.nvidia.com/legal/terms.