Ein Satz Token für die Antwort. Das wird als KI-Inferenz bezeichnet. Wenn Modelle in Größe und Komplexität zunehmen, benötigen Unternehmen einen Full-Stack-Ansatz sowie End-to-End-Tools, um in dieser neuen Ära der KI-Skalierungsgesetze erfolgreich zu sei
Weil Reasoning-Modelle exponentiell mehr KI-Token generieren, steigt die Nachfrage nach Rechenleistung. Um diese zu bedienen, sind KI-Fabriken erforderlich, die auf maximale Leistung, Effizienz und ROI über verschiedene Branchen hinweg ausgelegt sind und auf speziell entwickelten Infrastrukturen basieren, die mit NVIDIA Blackwell für Inferenz in großem Maßstab optimiert wurden.
Die Full-Stack-Optimierung von Inferenzen ist der Schlüssel, um KI clever und im großen Stil zu skalieren.
NVIDIA Blackwell ermöglicht die höchsten Umsätze im Bereich von KI-Fabriken, einschließlich eines bis zu 15-fachen ROI. Dies ist das Ergebnis eines umfassenden gemeinsamen Designs von NVIDIA Blackwell, NVLink™ und NVLink Switch für Scale-out, NVFP4 für Genauigkeit bei niedriger Präzision und NVIDIA Dynamo und TensorRT™-LLM für Geschwindigkeit und Flexibilität – sowie der Entwicklung mit Community-Frameworks SGLang, vLLM und anderen.
Die Ergebnisse von DeepSeek-R1 8K/1K zeigen einen 15-fachen Leistungsvorteil und Umsatzpotenzial für NVIDIA Blackwell GB200 NVL72 gegenüber Hopper H200.
NVIDIA TensorRT-LLM erzielt einen maximalen Durchsatz von 60.000 TPS/GPU, eine maximale Interaktivität von 1.000 TPS/Benutzer und eine 5-fache Leistungssteigerung in zwei Monaten auf gpt-oss-120b.
Standardisieren Sie die Modellbereitstellung für Anwendungen, KI-Frameworks, Modellarchitekturen und Plattformen.
Profitieren Sie von einer einfachen Integration in Tools und Plattformen in Public Clouds, in lokalen Rechenzentren und im Edge-Bereich.
Erzielen Sie hohen Durchsatz und hohe Auslastung der KI-Infrastruktur und senken Sie dadurch die Kosten.
Erleben Sie branchenführende Leistung mit der Plattform, die wiederholt mehrere Rekorde in MLPerf aufgestellt hat
, dem führenden Benchmark für KI in der Branche.NVIDIA AI Enterprise besteht aus NVIDIA NIM™, NVIDIA Triton™ Inference Server, NVIDIA® TensorRT™ und anderen Tools, die das Entwickeln, Freigeben und Bereitstellen von KI-Anwendungen vereinfachen. Mit Unterstützung, Stabilität, Verwaltbarkeit und Sicherheit auf Enterprise-Niveau können Unternehmen die Zeit bis zur Wertschöpfung (Time-to-Value) verkürzen und ungeplante Ausfallzeiten vermeiden.
Profitieren Sie von beispielloser KI-Leistung mit der NVIDIA KI-Inferenzsoftware, die für NVIDIA-beschleunigte Infrastruktur optimiert ist. Die Technologien von NVIDIA Blackwell Ultra, H200 GPU, NVIDIA RTX PRO™ 6000 Blackwell Server-Edition und NVIDIA RTX™ sorgen für außergewöhnliche Geschwindigkeit und Effizienz für KI-Inferenz-Workloads in Rechenzentren, Clouds und Workstations.