NVIDIA AI

Sofortige Bereitstellung generativer KI mit NVIDIA NIM

Entdecken Sie die neuesten KI-Modelle, die von der Community mit einer von NVIDIA optimierten und beschleunigten API erstellt wurden, und stellen Sie sie anschließend mit NVIDIA NIM-Inferenz-Microservices überall bereit.

Führende offene Modelle jetzt entdecken

Integrationen

Beschleunigte KI ist nur einen API-Aufruf entfernt

Legen Sie mit vertrauten APIs direkt los.

Nahtlose Kompatibilität mit beliebten Bibliotheken

Nutzen Sie NVIDIA-APIs in Ihren vorhandenen Tools und Anwendungen mit nur drei Codezeilen.

Entwickeln Sie mit den Tools, die Sie lieben

Arbeiten Sie mit Ihren bevorzugten Frameworks für LLM-Programmierung, einschließlich Langchain und LlamaIndex, und stellen Sie Ihre Anwendungen mühelos bereit.


Systemunabhängig

Beschleunigen Sie Ihre KI-Bereitstellung mit NVIDIA NIM

NVIDIA NIM ist Teil von NVIDIA AI Enterprise und besteht aus einer Reihe von benutzerfreundlichen Inferenz-Microservices, die die Bereitstellung von Basismodellen in jeder Cloud oder jedem Rechenzentrum beschleunigen und zur Sicherheit Ihrer Daten beitragen.

Accelerate Your AI Deployment With NVIDIA NIM

NIM-Bereitstellung

Stellen Sie NIM mit einem einzigen Befehl für Ihr Modell bereit. Außerdem können Sie NIM ganz einfach mit optimierten Modellen ausführen.

Inferenz-Ausführung

Nutzen Sie NIM mit der optimalen Laufzeit-Engine, die auf Ihrer NVIDIA-beschleunigten Infrastruktur basiert.

Entwicklung

Entwickler können selbst gehostete NIM-Endpunkte mit nur wenigen Codezeilen integrieren.

Deploy
Run
Build
docker run nvcr.io/nim/publisher_name/model_name
curl -X 'POST' \ 'http://0.0.0.0:8000/v1/completions' \ -H 'accept: application/json' \ -H 'Content-Type: application/json' \ -d '{ "model" : "model_name", "prompt" : "Once upon a time", "max_tokens" : 64 }'
import openai client = openai.OpenAI( base_url = "YOUR_LOCAL_ENDPOINT_URL", api_key="YOUR_LOCAL_API_KEY" ) chat_completion = client.chat.completions.create( model="model_name", messages=[{"role" : "user" , "content" : "Write me a love song" }], temperature=0.7 )

Lokale Einführung oder Skalierung mit Kubernetes

NVIDIA NIM liefert Ihnen containerisierte Microservices, damit Sie in Ihrer lokalen Entwicklungsumgebung KI-Modelle mit nur einem Befehl bereitstellen können. Alternativ können Sie Helm-Charts zur Orchestrierung und automatischen Skalierung mit beliebigen Kubernetes-Komponenten verwenden.

Optimierung von Kosten und CO2-Bilanz

Senken Sie die Betriebskosten für die Ausführung von Modellen in der Produktion – mit KI-Laufzeiten, deren Latenz und Durchsatz in der NVIDIA-beschleunigten Infrastruktur laufend optimiert wird.

Umfassende Sicherheit und zuverlässige Bereitstellung

Mit NVIDIA NIM können Sie sich auf produktionstaugliche Laufzeiten einschließlich kontinuierlicher Sicherheitsupdates verlassen und Ihre Geschäftsanwendungen mit stabilen APIs und Support der Enterprise-Klasse ausführen.

Bezugsquellen

Erste Schritte

Kostenlos mit Prototyping beginnen

Legen Sie mit benutzerfreundlichen, von NVIDIA verwalteten serverlosen APIs los.

  • Greifen Sie auf eine vollständig beschleunigte KI-Infrastruktur zu.
  • Ihre Daten werden nicht für das Training des Modells verwendet.
  • Sie bekommen 1.000 Interferenz-Credits für Ihren kostenlosen Einstieg.

Skalieren Sie Ihre eigene Infrastruktur

Hosten Sie selbstständig Microservices in der Cloud oder im Rechenzentrum Ihrer Wahl.

  • Die Daten verlassen niemals Ihre sichere Umgebung.
  • Nahtloser Übergang von Cloud-Endpunkten zu selbstständig gehosteten APIs ohne Codeänderung.
  • Erwerben Sie eine NVIDIA AI Enterprise-Lizenz für die Produktionsbereitstellung.

Anwendungsfälle

Entfachen Sie Innovationen

Erfahren Sie, wie NVIDIA-APIs branchenspezifische Anwendungsfälle unterstützen und Ihre KI-Entwicklung mit kuratierten Beispielen in Fahrt bringen.

Digitale Menschen

Erwecken Sie Spielcharaktere zum Leben oder erstellen Sie interaktive virtuelle Avatare, um den Kundendienst zu verbessern und es Ihrer Anwendung zu ermöglichen, sich besser mit den Nutzern zu verbinden.

Generierung von Inhalten

Generieren Sie hochrelevante, maßgeschneiderte und präzise Inhalte, die auf dem Fachwissen und dem geistigen Eigentum Ihres Unternehmens basieren.

Biomolekulare Generierung

Helfen Sie Ärzten dabei, medizinische Bildgebungs-Workflows zu optimieren, die Produktivität zu steigern, neue Erkenntnisse zu gewinnen und multimodale Patientendaten für ein tieferes Patientenverständnis zu verknüpfen.

Ökosystem

Bringen Sie Ihre Unternehmens-KI noch schneller voran

Schließen Sie sich führenden Partnern an, um Ihre KI-Anwendungen mit Modellen, Toolkits, Vektordatenbanken,
Frameworks und der Infrastruktur aus unserem Ökosystem zu entwickeln.

Ressourcen

Entfesseln, verbessern und hochskalieren

LaunchPad

Praxiskurse zur Nutzung des vollen Potenzials von KI

Erleben Sie die Leistungsfähigkeit von KI mit End-to-End-Lösungen in geführten Praxiskursen für RAG-basierte Chatbots, Medikamentenentwicklung und Routenoptimierungen.

Deep Learning Institute

Vertiefen Sie Ihr KI-Wissen

Ob Sie als Einzelperson Schulungen im selbstbestimmten Tempo suchen oder als Unternehmen Ihrer Belegschaft neue Kompetenzen vermitteln möchten – nutzen Sie dazu DLI-Kurse für generative KI, Datenwissenschaft und mehr.

AI Workbench

Klein anfangen. Hochskalieren.

NVIDIA AI Workbench bietet Entwicklern die Flexibilität, API-fähige Modelle auf lokalen oder Remote-Containern mit Grafikkarten auszuführen. Dies ermöglicht interaktive Projekt-Workflows von Experimenten über Prototyping bis hin zum Proof of Concept.

Aktuelles

Neuigkeiten zu NVIDIA NIM

In den aktuellen Pressemitteilungen von NVIDIA erfahren Sie, welchen Einfluss NIM und generative KI auf Branchen, die Partner, Kunden und vieles mehr haben.

Dokumentation

Erkunden Sie die technische Dokumentation, um mit dem Prototyping und der Entwicklung von KI-Anwendungen für Ihr Unternehmen mithilfe von NVIDIA-APIs zu beginnen.