Entdecken Sie die neuesten KI-Modelle, die von der Community mit einer von NVIDIA optimierten und beschleunigten API erstellt wurden, und stellen Sie sie anschließend mit NVIDIA NIM-Inferenz-Microservices überall bereit.
Integrationen
Legen Sie mit vertrauten APIs direkt los.
Nutzen Sie NVIDIA-APIs in Ihren vorhandenen Tools und Anwendungen mit nur drei Codezeilen.
Arbeiten Sie mit Ihren bevorzugten Frameworks für LLM-Programmierung, einschließlich Langchain und LlamaIndex, und stellen Sie Ihre Anwendungen mühelos bereit.
Daten sind die Grundlage moderner Unternehmensanwendungen. Verbinden Sie KI-Agenten mit Unternehmensdaten im großen Maßstab über ein KI-Abfragemodul, das RAG (Retrieval-Augmented Generation) verwendet, um Mitarbeiter mit sofortigem, genauem institutionellem Wissen zu versorgen.
Alles, was Sie brauchen, um wirkungsvolle generative KI-Anwendungen zu entwickeln. Jeder Blueprint umfasst NVIDIA NIM und Partner-Microservices, einen oder mehrere KI-Agenten, Beispielcode, Anleitungen für Anpassungen und einen Helm-Chart für die Bereitstellung.
Systemunabhängig
NVIDIA NIM ist Teil von NVIDIA AI Enterprise und besteht aus einer Reihe von benutzerfreundlichen Inferenz-Microservices, die die Bereitstellung von Basismodellen in jeder Cloud oder jedem Rechenzentrum beschleunigen und zur Sicherheit Ihrer Daten beitragen.
Stellen Sie NIM mit einem einzigen Befehl für Ihr Modell bereit. Außerdem können Sie NIM ganz einfach mit optimierten Modellen ausführen.
Nutzen Sie NIM mit der optimalen Laufzeit-Engine, die auf Ihrer NVIDIA-beschleunigten Infrastruktur basiert.
Entwickler können selbst gehostete NIM-Endpunkte mit nur wenigen Codezeilen integrieren.
Stellen Sie containerisierte KI-Microservices nahtlos auf beliebigen NVIDIA-beschleunigten Infrastrukturen bereit, von einem einzelnen Gerät bis hin zu Rechenzentren.
Verlassen Sie sich auf im Produktivbetrieb einsatzbereite Laufzeitumgebungen, einschließlich laufender Sicherheitsupdates, und nutzen Sie für Ihre Geschäftsanwendungen stabile APIs mit Support auf Enterprise-Niveau.
Senken Sie die Betriebskosten für die Ausführung von Modellen im Produktivbetrieb mit KI-Laufzeiten, die auf NVIDIA-beschleunigter Infrastruktur kontinuierlich optimiert werden, um Latenzzeiten zu verringern und den Durchsatz zu erhöhen.
NVIDIA NIM bietet von Haus aus optimierten Durchsatz und Latenz, um die Token-Generierung zu maximieren, gleichzeitige Benutzer zu Spitzenzeiten zu unterstützen und die Reaktionsfähigkeit zu verbessern.
Konfiguration: Llama3.1-8B-instruct, 1x H100SXM; Eingang 1.000 Token, Ausgabe 1.000 Token. Gleichzeitige Anfragen: 200. NIM ON: FP8. Durchsatz 6.354 Token/s, TTFT 0,4s, ITL: 31 ms. NIM OFF: FP8. Durchsatz 2.265 Token/s, TTFT 1,1s, ITL: 85 ms
Anpassung
NVIDIA NeMo™ ist eine End-to-End-Plattform für die Entwicklung von kundenspezifischer generativer KI in allen Bereichen. NVIDIA NeMo umfasst Tools für Training, Anpassung und Retrieval-Augmented Generation (RAG), Guardrailing, Datenkuration und Modell-Vorabtraining und bietet Unternehmen eine einfache, kostengünstige und schnelle Möglichkeit, generative KI zu nutzen.
Bezugsquellen
Anwendungsfälle
Erfahren Sie, wie NVIDIA-APIs branchenspezifische Anwendungsfälle unterstützen und Ihre KI-Entwicklung mit kuratierten Beispielen in Fahrt bringen.
Ökosystem
Schließen Sie sich führenden Partnern an, um Ihre KI-Anwendungen mit Modellen, Toolkits, Vektordatenbanken,
Frameworks und der Infrastruktur aus unserem Ökosystem zu entwickeln.
Ressourcen
Erkunden Sie die technische Dokumentation, um mit dem Prototyping und der Entwicklung von KI-Anwendungen für Ihr Unternehmen mithilfe von NVIDIA-APIs zu beginnen.