Überblick

Was ist KI-Inferenz?

KI-Inferenz ist der Vorgang, bei dem vortrainierte KI-Modelle eingesetzt werden, um neue Daten zu generieren, und bei dem eine KI Ergebnisse als Grundlage für Innovationen in jeder Branche liefert. KI-Modelle wachsen rasant im Hinblick auf ihre Größe, Komplexität und Vielfalt und verschieben die Grenzen des Möglichen. Für den erfolgreichen Einsatz von KI-Inferenz benötigen Unternehmen ein umfassendes Konzept, das den End-to-End-KI-Lebenszyklus unterstützt, und Tools, die es Teams ermöglichen, ihre Ziele zu erreichen.

Einsatz generativer KI im Produktivbetrieb

Informieren Sie sich über die wichtigsten Überlegungen bei der Bereitstellung und Skalierung generativer KI im Produktivbetrieb, einschließlich der entscheidenden Rolle der KI-Inferenz.

Vorteile

Informieren Sie sich über die Vorteile von NVIDIA AI für beschleunigte Inferenz

Standardisierte Bereitstellung

Standardisieren Sie die Modellbereitstellung für Anwendungen, KI-Frameworks, Modellarchitekturen und Plattformen.

Integration und Skalierung mit Leichtigkeit

Profitieren Sie von einer einfachen Integration in Tools und Plattformen in Public Clouds, in lokalen Rechenzentren und im Edge-Bereich.

Niedrigere Kosten.

Erzielen Sie hohen Durchsatz und hohe Auslastung der KI-Infrastruktur und senken Sie dadurch die Kosten.

Hohe Leistung

Erleben Sie branchenführende Leistung mit der Plattform, die wiederholt mehrere Rekorde in MLPerf aufgestellt hat

, dem führenden Benchmark für KI in der Branche.

Software

Entdecken Sie unsere KI-Inferenz-Software

NVIDIA AI Enterprise besteht aus NVIDIA NIM™, NVIDIA Triton™ Inference Server, NVIDIA® TensorRT™ und anderen Tools, die das Entwickeln, Freigeben und Bereitstellen von KI-Anwendungen vereinfachen. Mit Unterstützung, Stabilität, Verwaltbarkeit und Sicherheit auf Enterprise-Niveau können Unternehmen die Zeit bis zur Wertschöpfung (Time-to-Value) verkürzen und ungeplante Ausfallzeiten vermeiden.

Der schnellste Weg zur Inferenz mit generativer KI

NVIDIA NIM umfasst eine Reihe von einfach zu nutzenden Microservices, die für die sichere und zuverlässige Bereitstellung von hochleistungsfähigen KI-Modell-Inferenzen in Clouds, Rechenzentren und Workstations entwickelt wurden.

Einheitlicher Inferenzserver für alle Ihre KI-Workloads

NVIDIA Triton Inference Server ist eine Open-Source-Inferenzserver-Software, die Unternehmen dabei unterstützt, die Infrastruktur für das Inferenz-Serving mit maßgeschneiderten KI-Modellen zu konsolidieren, die Zeit für die Bereitstellung neuer KI-Modelle im Produktivbetrieb zu verkürzen und die Kapazität für KI-Inferenz und -Vorhersage zu erhöhen.

Ein SDK zur Optimierung von Inferenz und Runtime

NVIDIA TensorRT beinhaltet eine Inferenz-Laufzeitumgebung und Modelloptimierungen, die geringe Latenz und hohen Durchsatz für Produktivanwendungen bieten. Das TensorRT-System umfasst TensorRT, TensorRT-LLM, TensorRT Model Optimizer und TensorRT Cloud.

Hardware

Lernen Sie unsere KI-Inferenz-Infrastruktur kennen

Mit der für NVIDIA-beschleunigte Infrastrukturen optimierten NVIDIA-AI-Inferenz-Software erhalten Sie unvergleichliche KI-Leistung. NVIDIA H200, L40S und NVIDIA RTX™ bieten außergewöhnliche Schnelligkeit und Effizienz für KI-Inferenz-Workloads in Rechenzentren, Clouds und Workstations.

NVIDIA H200 Tensor Core GPU

Die NVIDIA H200 Tensor Core GPU sorgt mit bahnbrechenden Funktions- und Speichereigenschaften für hervorragende Leistung bei generativer KI und beim High-Performance-Computing (HPC). Als erste GPU mit HBM3e unterstützt der größere und schnellere Speicher der H200 die Beschleunigung von generativer KI und großen Sprachmodellen (LLMs) und gleichzeitig das wissenschaftliche Rechnen für HPC-Workloads.

NVIDIA L40S GPU

Die Kombination von NVIDIAs gesamtem Paket an Inferenz-Serving-Software mit der L40S-GPU stellt eine leistungsstarke Plattform für trainierte Modelle dar, die für Inferenz bereit sind. Dank der Unterstützung struktureller Sparsity und einer breiten Auswahl an Genauigkeiten liefert die L40S bis zu 1,7-fache Inferenzleistung der NVIDIA A100 Tensor Core GPU.

NVIDIA RTX-Technologie

NVIDIA RTX-Technologie macht KI im Visual Computing verfügbar und beschleunigt Kreativanwendungen durch Automatisierung von Aufgaben und Optimierung rechenintensiver Prozesse. Mit der Leistungsfähigkeit der CUDA®-Recheneinheiten liefert RTX Verbesserungen für Echtzeit-Rendering, KI, Grafik und Rechenleistung.

Anwendungsfälle

Wie KI-Inferenz eingesetzt wird

Erfahren Sie, inwiefern NVIDIA AI branchenspezifische Anwendungsfälle unterstützt, und starten Sie Ihre KI-Entwicklung mit ausgesuchten Beispielen.

Digitale Menschen

NVIDIA ACE ist eine Sammlung von Techniken, die Entwicklern helfen, digitale Menschen zum Leben zu erwecken. Mehrere ACE-Microservices sind NVIDIA NIMs – einfach zu implementierende, hochleistungsfähige Microservices, die für die Ausführung mit KI-PCs auf Basis von NVIDIA RTX oder im NVIDIA Graphics Delivery Network (GDN) optimiert sind, einem globalen Netzwerk von GPUs, das die Verarbeitung digitaler Menschen mit geringer Latenz in 100 Ländern bereitstellt. 

Generierung von Inhalten

Mit generativer KI können Sie höchst relevante, maßgeschneiderte und akkurate Inhalte erzeugen, die auf dem Fachwissen und dem geistigen Eigentum Ihres Unternehmens basieren.

Biomolekulare Generierung

Biomolekulare generative Modelle und die Rechenleistung von GPUs durchforsten effizient den Chemical Space und erzeugen schnell verschiedene Sätze kleiner Moleküle, die auf spezifische Wirkstoffziele oder -eigenschaften zugeschnitten sind.

Betrugserkennung

Finanzinstitute müssen ausgefeilte betrügerische Aktivitäten wie Identitätsdiebstahl, Kontoübernahme und Geldwäsche erkennen und verhindern. KI-fähige Anwendungen können Falschalarme bei der Erkennung von Transaktionsbetrug reduzieren, die Genauigkeit der Identitätsüberprüfung zur Erfüllung von KYC-Anforderungen (Know your Customer) verbessern und die Maßnahmen zur Bekämpfung von Geldwäsche (AML) effektiver gestalten, wodurch sowohl das Kundenerlebnis als auch die finanzielle Solidität des Unternehmens verbessert werden.

KI-Chatbot

Unternehmen möchten intelligente KI-Chatbots mithilfe von Retrieval-Augmented Generation (RAG) entwickeln. Mit RAG können Chatbots Fachspezifische Fragen präzise beantworten. Dazu rufen sie Informationen aus der Wissensdatenbank eines Unternehmens ab und stellen Echtzeit-Antworten in natürlicher Sprache bereit. Diese Chatbots können genutzt werden, um den Kundensupport zu verbessern, KI-Avatare zu personalisieren, Unternehmenswissen zu verwalten, das Onboarding von Mitarbeitenden zu optimieren, intelligenten IT-Support zu bieten, Inhalte zu erstellen und vieles mehr.

Sicherheitsrisiko-Analyse

Angesichts der Anzahl gemeldeter Sicherheitslücken in der CVE-Datenbank (Common Vulnerabilities and Exposures) (dt.: Bekannte Schwachstellen und Anfälligkeiten), die im Jahr 2022 ein Rekordhoch erreicht hat, wird das Patchen von Software-Sicherheitsproblemen zunehmend schwieriger. Mit generativer KI ist es möglich, den Schutz vor Schwachstellen zu verbessern und gleichzeitig die Belastung für Sicherheitsteams zu verringern.

Erfolgsgeschichten

Wie Branchenführer mit KI-Inferenz Innovationen vorantreiben

Amdocs

Leistung der generativen KI verstärken und Kosten senken

Lesen Sie, wie Amdocs mit NVIDIA DGX™ Cloud und NVIDIA NIM-Inferenz-Microservices amAIz, eine fachspezifische Generative-KI-Plattform für Telekommunikationsunternehmen, entwickelt hat, um die Latenz zu verbessern, Genauigkeit zu erhöhen und Kosten zu senken.

Snapchat

Verbesserter Modeeinkauf durch KI

Erfahren Sie, wie Snapchat das Einkaufserlebnis für Kleidung und die optische Zeichenerkennung auch von Emojis mit Triton Inference Server verbessert hat, um sein Geschäft zu skalieren, Kosten zu reduzieren und die Zeit bis zum Produktivbetrieb zu verkürzen.

Amazon

Steigerung der Kundenzufriedenheit

Erfahren Sie, wie Amazon die Kundenzufriedenheit dank 5-mal so schneller Inferenz mit TensorRT erhöhen konnte.

Ressourcen

Aktuelle Ressourcen für KI-Inferenz

Erste Schritte mit Inferenz auf NVIDIA LaunchPad

Haben Sie schon ein KI-Projekt? Bewerben Sie sich, um in einer Umgebung für das Testen und Prototyping Ihrer KI-Lösungen praktische Erfahrungen zu sammeln.

Lernpfade für generative KI und LLM nutzen

Verbessern Sie Ihre technischen Fähigkeiten in generativer KI und großen Sprachmodellen mit unseren umfassenden Lernpfaden.

Einstieg in die Inferenz mit generativer KI auf NVIDIA LaunchPad

Kommen Sie durch direkten, kurzfristigen Zugang zu NVIDIA NIM-Inferenz-Microservices und KI-Modellen schneller bei Ihrer Arbeit mit generativer KI voran – kostenlos.

Bereitstellung von generativer KI im Produktivbetrieb mit NVIDIA NIM

Nutzen Sie das Potenzial generativer KI mit NVIDIA NIM. Dieses Video zeigt, wie NVIDIA NIM-Microservices Ihre KI-Implementierung in ein Kraftpaket verwandeln können, das für den Produktivbetrieb bereit ist.

Top-5-Gründe, warum Triton die Inferenz vereinfacht

Triton Inference Server vereinfacht die Bereitstellung von KI-Modellen im großen Maßstab im Produktivbetrieb. Mit der Open-Source-Inferenz-Serving-Software können Teams trainierte KI-Modelle aus jedem beliebigen Framework von lokalen Massenspeicher- oder Cloud-Plattformen auf einer GPU- oder CPU-basierten Infrastruktur bereitstellen.

UneeQ

NVIDIA enthüllt NIMs

Haben Sie sich jemals gefragt, was die NIM-Technologie von NVIDIA leisten kann? Vertiefen Sie sich in die Welt der sensationellen „digitalen Menschen“ und Roboter, um zu sehen, was NIMs möglich machen.

Die nächsten Schritte

Sind Sie bereit?

Informieren Sie sich über alles, was Sie benötigen, um mit der Entwicklung Ihrer KI-Anwendung zu beginnen, einschließlich der neuesten Dokumentation, Tutorials, technischer Blogs und mehr.

Kontaktieren Sie uns

Sprechen Sie mit einem NVIDIA-Produktspezialisten über den Wechsel vom Pilot- zum Produktivbetrieb mit der Sicherheit, API-Stabilität und Unterstützung von NVIDIA AI Enterprise.

Erfahren Sie das Neueste über NVIDIA AI

Melden Sie sich an, um aktuelle Nachrichten, Updates und mehr von NVIDIA zu erhalten.