NVIDIA NIM™ bietet vorgefertigte, optimierte Inferenz-Microservices für die schnelle Bereitstellung der neuesten KI-Modelle in jeder NVIDIA-beschleunigten Infrastruktur – in der Cloud, im Rechenzentrum, auf der Workstation und am Netzwerkrand.
Generative KI-Inferenz mit NVIDIA NIM: Leistung und Gesamtbetriebskosten
Erfahren Sie, inwiefern NIM-Microservices besser abschneiden als gängige Alternativen. Sie können beim Einsatz mit derselben NVIDIA-beschleunigten Infrastruktur bis zu 3-mal so viele Token pro Sekunde verarbeiten.
Nutzen Sie unbegrenztes Prototyping mit gehosteten APIs für NIM, beschleunigt durch DGX Cloud, oder laden Sie NIM-Microservices für Forschung und Entwicklung als Teil des NVIDIA Developer-Programms herunter und hosten Sie diese in ihrer eigenen Umgebung.
NVIDIA NIM kombiniert die Benutzerfreundlichkeit und die einfache Handhabung verwalteter APIs mit der Flexibilität und Sicherheit durch selbst gehostete Modelle innerhalb der bevorzugten Infrastruktur. NIM-Microservices werden zusammen mit allem bereitgestellt, was KI-Teams benötigen – den neuesten KI-Foundation-Modellen, optimierten Inferenz-Engines, APIs nach Branchenstandard und erforderlichen Laufzeitkomponenten – als Software-Pakete in Containern mit Enterprise-Qualität, die direkt an beliebiger Stelle eingesetzt und skaliert werden können.
Vorteile
Generative Unternehmens-KI, die für weniger mehr bietet
Unkomplizierte, unternehmensgerechte Microservices für hochleistungsfähige KI – konzipiert für nahtlose Funktion und kostengünstige Skalierung: Profitieren Sie von kürzester Zeit bis zur Wertschöpfung bei KI-Agenten und in anderen Bereichen der generativen KI, die auf den neuesten KI-Modellen für Reasoning, Simulation, Sprache usw. basieren.
Unkomplizierte Nutzung
Beschleunigen Sie die Innovation und verkürzen Sie die Markteinführungszeit mit vorgefertigten, optimierten Microservices für die neuesten KI-Modelle. Mit Standard-APIs können Modelle in fünf Minuten bereitgestellt und einfach in Anwendungen integriert werden.
Stellen Sie unternehmensgerechte Microservices bereit, die kontinuierlich von NVIDIA mit strengen Validierungsprozessen und spezifischen Funktionszweigen verwaltet werden – alles unterstützt vom NVIDIA-Unternehmenssupport, der auch direkten Kontakt zu NVIDIA-AI-Experten bietet.
Leistung und Skalierbarkeit
Senken Sie die Gesamtbetriebskosten durch KI-Inferenz mit geringer Latenz und hohem Durchsatz, die mit der Cloud skalierbar ist, und erzielen Sie von Anfang an höchste Genauigkeit mit Unterstützung für fein abgestimmte Modelle.
Stellen Sie die Lösung an beliebiger Stelle mit vorgefertigten Cloud-nativen Microservices bereit, die in jeder NVIDIA-beschleunigten Infrastruktur genutzt werden können – in der Cloud, im Rechenzentrum und mit Workstations – und die in Kubernetes- und Cloud-Service-Provider-Umgebungen nahtlos skalierbar sind.
Demo
Entwicklung von KI-Agenten mit NIM
Sehen Sie zu, wie zwei KI-Agenten eingerichtet werden – einer für die Generierung von Inhalten und ein anderer für digitales Grafikdesign – und erfahren Sie, wie einfach die Realisierung mit NIM-Microservices ist.
Nutzen Sie die neuesten KI-Modelle für Reasoning, Sprache, Retrieval, Sprache, Vision und mehr – die in fünf Minuten in jeder NVIDIA-beschleunigten Infrastruktur bereitgestellt werden können.
Schneller Einstieg in die Entwicklung mit NVIDIA Blueprints
Entwickeln Sie mit umfassenden Referenz-Workflows und Bibliotheken, SDKs und NIM-Microservices für NVIDIA-Beschleunigung eindrucksvolle agentenbasierte KI-Anwendungen.
Vereinfachte Entwicklung mit dem NVIDIA AgentIQ-Toolkit
Nutzen Sie bei der Integration von NIM-Microservices in agentenbasierte KI-Anwendungen die NVIDIA AgentIQ-Bibliothek, ein Entwickler-Toolkit für KI-Agenten und deren Integration in eigene Workflows.
NVIDIA NIM bietet von Haus aus optimierten Durchsatz und optimierte Latenz, um die Token-Generierung zu maximieren, gleichzeitige Benutzer zu Spitzenzeiten zu unterstützen und das Reaktionsverhalten zu verbessern. NIM-Microservices werden kontinuierlich mit den neuesten optimierten Inferenz-Engines aktualisiert, was die Leistung innerhalb der gleichbleibenden Infrastruktur im Laufe der Zeit weiter steigert.
Konfiguration: Llama 3.1 8B instruct, 1 x H100 SXM; gleichzeitige Anfragen: 200. NIM aktiviert: FP8, Durchsatz 1201 Token/s, ITL 32 ms. NIM aus: FP8, Durchsatz 613 Token/Sekunde, ITL 37 ms.
Modelle
Entwicklung mit führenden offenen Modellen
Profitieren Sie von optimierter Inferenzleistung mit den neuesten KI-Modellen, um multimodale agentenbasierte KI mit Funktionen für Schlussfolgerung, Übersetzung, Retrieval, Sprache, Bilderzeugung und mehr zu unterstützen. Zu den NVIDIA Inference Microservices (NIM) gehören beschleunigte Inferenz-Engines von NVIDIA und der Community, einschließlich NVIDIA® TensorRT™, TensorRT-LLM und mehr – vorgefertigt und für Inferenz mit geringer Latenz und hohem Durchsatz in einer NVIDIA-beschleunigten Infrastruktur optimiert.
Der einfache Weg für die KI-Entwicklung und -Bereitstellung
NIM-Inferenz-Microservices sind für den Einsatz an beliebiger Stelle konzipiert und bieten APIs nach Branchenstandard für die einfache Integration in Unternehmenssysteme und -anwendungen. Sie lassen sich nahtlos auf Kubernetes skalieren, um Inferenz mit hohem Durchsatz und geringer Latenz im Cloud-Maßstab zu ermöglichen.
NIM bereitstellen
Stellen Sie NIM für Ihr Modell mit einem einzigen Befehl bereit. Entsprechend unkompliziert ist die Nutzung von NIM mit fein abgestimmten Modellen.
Inferenz ausführen
Nutzen Sie NIM in Verbindung mit der optimalen, auf Ihrer NVIDIA-beschleunigten Infrastruktur basierenden Runtime-Engine.
Entwickeln
Integrieren Sie selbst gehostete NIM-Endpunkte mit nur wenigen Codezeilen.
Setzen Sie NVIDIA NIM ein, um optimierte KI-Modelle für die Cloud oder das Rechenzentrum Ihrer Wahl zu skalieren.
Stellen Sie sicher, dass Daten niemals Ihre sichere Enklave verlassen.
Wechseln Sie ohne Änderungen am Programmcode nahtlos von Cloud-Endpunkten zu selbst gehosteten APIs.
Beginnen Sie mit kostenlosem Zugriff für die Entwicklung und das Testen, und wechseln Sie für den Produktivbetrieb dann zu einer NVIDIA-AI-Enterprise-Lizenz.
Sprechen Sie mit einem NVIDIA-AI-Spezialisten über die Überführung von Pilotprojekten für generative KI in den Produktivbetrieb – mit der Sicherheit, API-Stabilität und Unterstützung von NVIDIA AI Enterprise.
Analysieren Sie Ihre Anwendungsfälle für generative KI.
Besprechen Sie Ihre technischen Anforderungen.
Stimmen Sie NVIDIA AI Lösungen mit Ihren Zielen und Anforderungen ab.
Entwicklung eines KI-Hintergrund-Generators mit NIM
Verfolgen Sie die Entwicklung einer KI-fähigen, auf dem NVIDIA Omniverse™ Kit basierenden Anwendung. Sie erfahren, wie Omniverse-Erweiterungen, NIM-Microservices und Python-Code für eine Software-Erweiterung eingesetzt werden können, die aus Texteingaben Hintergrunddarstellungen generiert.
Profitieren Sie von unbegrenztem Zugriff auf NIM-API-Endpunkte für das Prototyping, beschleunigt durch DGX Cloud. Wenn Sie bereit für den Produktivbetrieb sind, können Sie NIM herunterladen und in Ihrer bevorzugten Infrastruktur selbst hosten – auf der Workstation, im Rechenzentrum, am Netzwerkrand oder in der Cloud – oder Sie können auf NIM-Endpunkte zugreifen, die von NVIDIA-Partnern gehostet werden.
Sprechen Sie mit einem NVIDIA-Produktexperten über den Wechsel von der Pilotphase in den Produktivbetrieb mit der Sicherheit, API-Stabilität und Unterstützung von NVIDIA AI Enterprise.