Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
Nutzen Sie End-to-End-Hochleistungsnetzwerke für wissenschaftliche Computing-, KI- und Cloud-Rechenzentren.
Komplexe Workloads erfordern ultraschnelle Verarbeitung von hochauflösenden Simulationen, extrem großen Datensätzen und hochgradig parallelisierten Algorithmen. Da diese Computing-Anforderungen weiter wachsen, bietet NVIDIA Quantum InfiniBand – die weltweit einzige vollständig Offload-fähige In-Network-Computing-Plattform – den dramatischen Leistungssprung, der erforderlich ist, um eine unübertroffene Leistung in High-Performance-Computing (HPC), KI und Hyperscale-Cloud-Infrastrukturen mit weniger Kosten und Komplexität zu erreichen.
InfiniBand Host-Channel-Adapter (HCAs) bieten eine extrem niedrige Latenz, hohen Durchsatz und innovative NVIDIA In-Network Computing-Engines, um die Beschleunigung, Skalierbarkeit und funktionsreiche Technologie bereitzustellen, die für moderne Workloads erforderlich sind.
Die neue NVIDIA® BlueField®-DPU kombiniert leistungsstarkes Computing, Hochgeschwindigkeitsnetzwerke und umfangreiche Programmierbarkeit, um softwaredefinierte, hardwarebeschleunigte Lösungen für die anspruchsvollsten Workloads bereitzustellen. Von beschleunigtem KI- und wissenschaftlichem Computing bis hin zu Cloud-nativem Supercomputing – BlueField definiert die Möglichkeiten neu.
InfiniBand Switch-Systeme bieten marktführende Leistung und Portdichte. Innovative Funktionen wie NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ und erweiterte Verwaltungsfunktionen wie selbstheilende Netzwerkfunktionen, Servicequalität, verbessertes Virtual Lane Mapping und NVIDIA In-Network Computing-Beschleunigungs-Engines sorgen für einen Leistungsschub für Industrie-, KI- und wissenschaftliche Anwendungen.
InfiniBand-Systeme bieten die höchste Skalierbarkeit und Subnetzisolierung mithilfe von InfiniBand-Routern und InfiniBand-to-Ethernet-Gatewaysystemen. Das Letztere ermöglicht eine skalierbare und effiziente Möglichkeit, um InfiniBand-Rechenzentren mit Ethernet-Infrastrukturen zu verbinden.
NVIDIA MetroX® Long-Haul-Systeme können nahtlos Verbindungen mit Remote-InfiniBand-Rechenzentren, Speichern und anderen InfiniBand-Plattformen herstellen. Sie erhöhen die Reichweite von InfiniBand auf bis zu 40 Kilometer und ermöglichen eine native InfiniBand-Konnektivität zwischen Remote-Rechenzentren oder zwischen Rechenzentren und Remote-Speicherinfrastrukturen für hohe Verfügbarkeit und Notfallwiederherstellung.
LinkX®-Kabel und -Transceiver sind auf die Maximierung der Leistung von HPC-Netzwerken ausgelegt und benötigen Verbindungen mit hoher Bandbreite, geringer Latenz und hoher Zuverlässigkeit zwischen InfiniBand-Elementen.
Das NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ verlagert kollektive Kommunikationsabläufe in das Switch-Netzwerk, was den Datenverkehr im Netzwerk verringert, die Zeit für MPI-Vorgänge (Message Passing Interface) reduziert und die Effizienz des Rechenzentrums erhöht.
Das selbstheilende Netzwerk von NVIDIA InfiniBand behebt Verbindungsausfälle und erlaubt es so, das Netzwerk 5000 mal schneller wiederherzustellen als jede andere softwarebasierte Lösung. Diese Funktionen nutzen die Intelligenz, die in der neuesten Generation von InfiniBand Switches verbaut wurde.
InfiniBand ist die einzige hochleistungsfähige Verbindungslösung mit bewährten Funktionen für Servicequalität, einschließlich fortschrittlicher Überlastregelung und adaptivem Routing, wodurch eine unübertroffene Netzwerkeffizienz erreicht wird.
InfiniBand bietet zentralisierte Verwaltung und unterstützt jede Topologie, einschließlich Fat Tree, Hypercube, mehrdimensionaler Torus und Dragonfly+. Routing-Algorithmen optimieren die Leistung bei der Entwicklung einer Topologie für bestimmte Anwendungskommunikationsmuster.
Das OFED der OpenFabrics Alliance wurde in Zusammenarbeit mit führenden Hochleistungs-IO-Anbietern (Input/Output) entwickelt und getestet. NVIDIA MLNX_OFED ist eine von NVIDIA getestete Version von OFED.
NVIDIA HPC-X® ist eine umfassende Softwaresuite für MPI und SHMEM/PGAS. HPC-X nutzt InfiniBand In-Network Computing und Beschleunigungs-Engines, um Forschungs- und Industrieanwendungen zu optimieren.
Die NVIDIA Unified Fabric Manager-Plattform (UFM®) ermöglicht Rechenzentrums administratoren die effiziente Bereitstellung, Überwachung, Verwaltung und proaktive Fehlerbehebung ihrer InfiniBand-Netzwerkinfrastruktur.
NVIDIA Magnum IO™ nutzt Netzwerk-IO, netzwerkinternes Computing, Speicher und IO-Management, um Datenbewegungen sowie den Zugriff auf und die Verwaltung von Systemen mit mehreren Grafikprozessoren und mehreren Knoten zu vereinfachen und zu beschleunigen.