NVIDIA AI

NVIDIA NIM-Microservices

Entwickelt für die schnelle, zuverlässige und an beliebiger Stelle mögliche Bereitstellung beschleunigter generativer KI-Inferenz.

Überblick

Was ist NVIDIA NIM?

NVIDIA NIM™ bietet vorgefertigte, optimierte Inferenz-Microservices für die schnelle Bereitstellung der neuesten KI-Modelle in jeder NVIDIA-beschleunigten Infrastruktur – in der Cloud, im Rechenzentrum, auf der Workstation und am Netzwerkrand.

Generative KI-Inferenz mit NVIDIA NIM: Leistung und Gesamtbetriebskosten

Erfahren Sie, inwiefern NIM-Microservices besser abschneiden als gängige Alternativen. Sie können beim Einsatz mit derselben NVIDIA-beschleunigten Infrastruktur bis zu 3-mal so viele Token pro Sekunde verarbeiten.

Kostenloser Zugriff auf NIM für die Entwicklung

Nutzen Sie unbegrenztes Prototyping mit gehosteten APIs für NIM, beschleunigt durch DGX Cloud, oder laden Sie NIM-Microservices für Forschung und Entwicklung als Teil des NVIDIA Developer-Programms herunter und hosten Sie diese in ihrer eigenen Umgebung.

Schnellere KI-Bereitstellung mit NVIDIA NIM

NVIDIA NIM kombiniert die Benutzerfreundlichkeit und die einfache Handhabung verwalteter APIs mit der Flexibilität und Sicherheit durch selbst gehostete Modelle innerhalb der bevorzugten Infrastruktur. NIM-Microservices werden zusammen mit allem bereitgestellt, was KI-Teams benötigen – den neuesten KI-Foundation-Modellen, optimierten Inferenz-Engines, APIs nach Branchenstandard und erforderlichen Laufzeitkomponenten – als Software-Pakete in Containern mit Enterprise-Qualität, die direkt an beliebiger Stelle eingesetzt und skaliert werden können.

NVIDIA-NIM-Stack-Schaubild

Vorteile

Generative Unternehmens-KI, die für weniger mehr bietet

Unkomplizierte, unternehmensgerechte Microservices für hochleistungsfähige KI – konzipiert für nahtlose Funktion und kostengünstige Skalierung: Profitieren Sie von kürzester Zeit bis zur Wertschöpfung bei KI-Agenten und in anderen Bereichen der generativen KI, die auf den neuesten KI-Modellen für Reasoning, Simulation, Sprache usw. basieren. 

Symbol für einfache Nutzung

Unkomplizierte Nutzung

Beschleunigen Sie die Innovation und verkürzen Sie die Markteinführungszeit mit vorgefertigten, optimierten Microservices für die neuesten KI-Modelle. Mit Standard-APIs können Modelle in fünf Minuten bereitgestellt und einfach in Anwendungen integriert werden.

Symbol für Sicherheit und Verwaltbarkeit

Unternehmensstandard

Stellen Sie unternehmensgerechte Microservices bereit, die kontinuierlich von NVIDIA mit strengen Validierungsprozessen und spezifischen Funktionszweigen verwaltet werden – alles unterstützt vom NVIDIA-Unternehmenssupport, der auch direkten Kontakt zu NVIDIA-AI-Experten bietet.

Symbol für Leistung und Skalierung

Leistung und Skalierbarkeit

Senken Sie die Gesamtbetriebskosten durch KI-Inferenz mit geringer Latenz und hohem Durchsatz, die mit der Cloud skalierbar ist, und erzielen Sie von Anfang an höchste Genauigkeit mit Unterstützung für fein abgestimmte Modelle.

Symbol für Portabilität

Portabilität

Stellen Sie die Lösung an beliebiger Stelle mit vorgefertigten Cloud-nativen Microservices bereit, die in jeder NVIDIA-beschleunigten Infrastruktur genutzt werden können – in der Cloud, im Rechenzentrum und mit Workstations – und die in Kubernetes- und Cloud-Service-Provider-Umgebungen nahtlos skalierbar sind. 

Demo

Entwicklung von KI-Agenten mit NIM

Sehen Sie zu, wie zwei KI-Agenten eingerichtet werden – einer für die Generierung von Inhalten und ein anderer für digitales Grafikdesign – und erfahren Sie, wie einfach die Realisierung mit NIM-Microservices ist.


Technologie

Bausteine für agentenbasierte KI

Symbol für Reasoning-NIM

Die neuesten KI-Reasoning-Modelle

Nutzen Sie die neuesten KI-Modelle für Reasoning, Sprache, Retrieval, Sprache, Vision und mehr – die in fünf Minuten in jeder NVIDIA-beschleunigten Infrastruktur bereitgestellt werden können.

Symbol für NVIDIA Blueprints

Schneller Einstieg in die Entwicklung mit NVIDIA Blueprints

Entwickeln Sie mit umfassenden Referenz-Workflows und Bibliotheken, SDKs und NIM-Microservices für NVIDIA-Beschleunigung eindrucksvolle agentenbasierte KI-Anwendungen.

Symbol für AgentIQ-Toolkit

Vereinfachte Entwicklung mit dem NVIDIA AgentIQ-Toolkit

Nutzen Sie bei der Integration von NIM-Microservices in agentenbasierte KI-Anwendungen die NVIDIA AgentIQ-Bibliothek, ein Entwickler-Toolkit für KI-Agenten und deren Integration in eigene Workflows.

Benchmarks

Durchsatz mit NIM steigern

NVIDIA NIM bietet von Haus aus optimierten Durchsatz und optimierte Latenz, um die Token-Generierung zu maximieren, gleichzeitige Benutzer zu Spitzenzeiten zu unterstützen und das Reaktionsverhalten zu verbessern. NIM-Microservices werden kontinuierlich mit den neuesten optimierten Inferenz-Engines aktualisiert, was die Leistung innerhalb der gleichbleibenden Infrastruktur im Laufe der Zeit weiter steigert.

0.0x0.5x1.0x1.5x2x2X1XNIM OnNIM Off

Konfiguration: Llama 3.1 8B instruct, 1 x H100 SXM; gleichzeitige Anfragen: 200. NIM aktiviert: FP8, Durchsatz 1201 Token/s, ITL 32 ms. NIM aus: FP8, Durchsatz 613 Token/Sekunde, ITL 37 ms.

Modelle

Entwicklung mit führenden offenen Modellen

Profitieren Sie von optimierter Inferenzleistung mit den neuesten KI-Modellen, um multimodale agentenbasierte KI mit Funktionen für Schlussfolgerung, Übersetzung, Retrieval, Sprache, Bilderzeugung und mehr zu unterstützen. Zu den NVIDIA Inference Microservices (NIM) gehören beschleunigte Inferenz-Engines von NVIDIA und der Community, einschließlich NVIDIA® TensorRT™, TensorRT-LLM und mehr – vorgefertigt und für Inferenz mit geringer Latenz und hohem Durchsatz in einer NVIDIA-beschleunigten Infrastruktur optimiert. 


Merkmale

Der einfache Weg für die KI-Entwicklung und -Bereitstellung

NIM-Inferenz-Microservices sind für den Einsatz an beliebiger Stelle konzipiert und bieten APIs nach Branchenstandard für die einfache Integration in Unternehmenssysteme und -anwendungen. Sie lassen sich nahtlos auf Kubernetes skalieren, um Inferenz mit hohem Durchsatz und geringer Latenz im Cloud-Maßstab zu ermöglichen.

NIM bereitstellen

Stellen Sie NIM für Ihr Modell mit einem einzigen Befehl bereit. Entsprechend unkompliziert ist die Nutzung von NIM mit fein abgestimmten Modellen.

Inferenz ausführen

Nutzen Sie NIM in Verbindung mit der optimalen, auf Ihrer NVIDIA-beschleunigten Infrastruktur basierenden Runtime-Engine.

Entwickeln

Integrieren Sie selbst gehostete NIM-Endpunkte mit nur wenigen Codezeilen.

Deploy
Run
Build
docker run nvcr.io/nim/publisher_name/model_name
curl -X 'POST' \ 'http://0.0.0.0:8000/v1/completions' \ -H 'accept: application/json' \ -H 'Content-Type: application/json' \ -d '{ "model" : "model_name", "prompt" : "Once upon a time", "max_tokens" : 64 }'
import openai client = openai.OpenAI( base_url = "YOUR_LOCAL_ENDPOINT_URL", api_key="YOUR_LOCAL_API_KEY" ) chat_completion = client.chat.completions.create( model="model_name", messages=[{"role" : "user" , "content" : "Write me a love song" }], temperature=0.7 )

Anwendungsfälle

Wie NIM eingesetzt wird

Sehen Sie sich an, wie NVIDIA NIM Anwendungsfälle in der Wirtschaft unterstützt und starten Sie Ihre KI-Entwicklung mithilfe ausgewählter Beispiele.

Virtuelle KI-Assistenten

Verbessern Sie das Kundenerlebnis und optimieren Sie Geschäftsprozesse mit generativer KI.

Virtueller Mensch in einer virtuellen Chat-Session.

Einstiegsoptionen

Erste Schritte mit NVIDIA NIM

Kostenlos Prototyping starten

Beginnen Sie mit einfach zu handhabenden API-Endpunkten für NIM, unterstützt von DGX Cloud.

  • Nutzen Sie eine vollständig beschleunigte KI-Infrastruktur.
  • Stellen Sie sicher, dass Ihre Daten nicht für das Modelltraining verwendet werden.
  • Nutzen Sie den Zugang im Rahmen des NVIDIA-Entwicklerprogramms für die Entwicklung und das Testen.

Herunterladen und bereitstellen

Setzen Sie NVIDIA NIM ein, um optimierte KI-Modelle für die Cloud oder das Rechenzentrum Ihrer Wahl zu skalieren.

  • Stellen Sie sicher, dass Daten niemals Ihre sichere Enklave verlassen.
  • Wechseln Sie ohne Änderungen am Programmcode nahtlos von Cloud-Endpunkten zu selbst gehosteten APIs.
  • Beginnen Sie mit kostenlosem Zugriff für die Entwicklung und das Testen, und wechseln Sie für den Produktivbetrieb dann zu einer NVIDIA-AI-Enterprise-Lizenz.

Kontaktieren Sie uns

Sprechen Sie mit einem NVIDIA-AI-Spezialisten über die Überführung von Pilotprojekten für generative KI in den Produktivbetrieb – mit der Sicherheit, API-Stabilität und Unterstützung von NVIDIA AI Enterprise.

  • Analysieren Sie Ihre Anwendungsfälle für generative KI.
  • Besprechen Sie Ihre technischen Anforderungen.
  • Stimmen Sie NVIDIA AI Lösungen mit Ihren Zielen und Anforderungen ab.

Ressourcen

Die neuesten NVIDIA NIM-Ressourcen

Nächste Schritte

Bereit für den Einstieg?

Profitieren Sie von unbegrenztem Zugriff auf NIM-API-Endpunkte für das Prototyping, beschleunigt durch DGX Cloud. Wenn Sie bereit für den Produktivbetrieb sind, können Sie NIM herunterladen und in Ihrer bevorzugten Infrastruktur selbst hosten – auf der Workstation, im Rechenzentrum, am Netzwerkrand oder in der Cloud – oder Sie können auf NIM-Endpunkte zugreifen, die von NVIDIA-Partnern gehostet werden.

Kontaktieren Sie uns

Sprechen Sie mit einem NVIDIA-Produktexperten über den Wechsel von der Pilotphase in den Produktivbetrieb mit der Sicherheit, API-Stabilität und Unterstützung von NVIDIA AI Enterprise.

Mit NVIDIA NIM News auf dem Laufenden bleiben

Lassen Sie sich die neuesten Nachrichten und Infos über Technologie, Durchbrüche und mehr direkt in Ihren Posteingang schicken.

Select Location
Middle East