Die NVIDIA Quantum InfiniBand-Plattform

Nutzen Sie End-to-End-Hochleistungsnetzwerke für wissenschaftliche Computing-, KI- und Cloud-Rechenzentren.

Netzwerklösungen mit InfiniBand

Komplexe Workloads erfordern ultraschnelle Verarbeitung von hochauflösenden Simulationen, extrem großen Datensätzen und hochgradig parallelisierten Algorithmen. Da diese Computing-Anforderungen weiter wachsen, bietet NVIDIA Quantum InfiniBand – die weltweit einzige vollständig Offload-fähige In-Network-Computing-Plattform – den dramatischen Leistungssprung, der erforderlich ist, um eine unübertroffene Leistung in High-Performance-Computing (HPC), KI und Hyperscale-Cloud-Infrastrukturen mit weniger Kosten und Komplexität zu erreichen.

NVIDIA Quantum-X800 InfiniBand für leistungsstarke KI-dedizierte Infrastruktur

InfiniBand-Adapter

InfiniBand Host-Channel-Adapter (HCAs) bieten eine extrem niedrige Latenz, hohen Durchsatz und innovative NVIDIA In-Network Computing-Engines, um die Beschleunigung, Skalierbarkeit und funktionsreiche Technologie bereitzustellen, die für moderne Workloads erforderlich sind.

Datenverarbeitungseinheiten (DPUs)

Die neue NVIDIA® BlueField®-DPU kombiniert leistungsstarkes Computing, Hochgeschwindigkeitsnetzwerke und umfangreiche Programmierbarkeit, um softwaredefinierte, hardwarebeschleunigte Lösungen für die anspruchsvollsten Workloads bereitzustellen. Von beschleunigtem KI- und wissenschaftlichem Computing bis hin zu Cloud-nativem Supercomputing – BlueField definiert die Möglichkeiten neu.

InfiniBand Switches

InfiniBand Switch-Systeme bieten marktführende Leistung und Portdichte. Innovative Funktionen wie NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ und erweiterte Verwaltungsfunktionen wie selbstheilende Netzwerkfunktionen, Servicequalität, verbessertes Virtual Lane Mapping und NVIDIA In-Network Computing-Beschleunigungs-Engines sorgen für einen Leistungsschub für Industrie-, KI- und wissenschaftliche Anwendungen.

Router und Gateway-Systeme

InfiniBand-Systeme bieten die höchste Skalierbarkeit und Subnetzisolierung mithilfe von InfiniBand-Routern und InfiniBand-to-Ethernet-Gatewaysystemen. Das Letztere ermöglicht eine skalierbare und effiziente Möglichkeit, um InfiniBand-Rechenzentren mit Ethernet-Infrastrukturen zu verbinden.

Long-Haul-Systeme

NVIDIA MetroX® Long-Haul-Systeme können nahtlos Verbindungen mit Remote-InfiniBand-Rechenzentren, Speichern und anderen InfiniBand-Plattformen herstellen. Sie erhöhen die Reichweite von InfiniBand auf bis zu 40 Kilometer und ermöglichen eine native InfiniBand-Konnektivität zwischen Remote-Rechenzentren oder zwischen Rechenzentren und Remote-Speicherinfrastrukturen für hohe Verfügbarkeit und Notfallwiederherstellung.

Kabel und Transceiver

LinkX®-Kabel und -Transceiver sind auf die Maximierung der Leistung von HPC-Netzwerken ausgelegt und benötigen Verbindungen mit hoher Bandbreite, geringer Latenz und hoher Zuverlässigkeit zwischen InfiniBand-Elementen.

Erweiterte Funktionen von InfiniBand

Netzwerkinternes Computing

Das NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ verlagert kollektive Kommunikationsabläufe in das Switch-Netzwerk, was den Datenverkehr im Netzwerk verringert, die Zeit für MPI-Vorgänge (Message Passing Interface) reduziert und die Effizienz des Rechenzentrums erhöht.

Selbstheilendes Netzwerk

Das selbstheilende Netzwerk von NVIDIA InfiniBand behebt Verbindungsausfälle und erlaubt es so, das Netzwerk 5000 mal schneller wiederherzustellen als jede andere softwarebasierte Lösung. Diese Funktionen nutzen die Intelligenz, die in der neuesten Generation von InfiniBand Switches verbaut wurde.

Servicequalität

InfiniBand ist die einzige hochleistungsfähige Verbindungslösung mit bewährten Funktionen für Servicequalität, einschließlich fortschrittlicher Überlastregelung und adaptivem Routing, wodurch eine unübertroffene Netzwerkeffizienz erreicht wird.

Netzwerktopologien

InfiniBand bietet zentralisierte Verwaltung und unterstützt jede Topologie, einschließlich Fat Tree, Hypercube, mehrdimensionaler Torus und Dragonfly+. Routing-Algorithmen optimieren die Leistung bei der Entwicklung einer Topologie für bestimmte Anwendungskommunikationsmuster.

Software für optimale Leistung

MLNX_OFED

Das OFED der OpenFabrics Alliance wurde in Zusammenarbeit mit führenden Hochleistungs-IO-Anbietern (Input/Output) entwickelt und getestet. NVIDIA MLNX_OFED ist eine von NVIDIA getestete Version von OFED.

HPC-X

NVIDIA HPC-X® ist eine umfassende Softwaresuite für MPI und SHMEM/PGAS. HPC-X nutzt InfiniBand In-Network Computing und Beschleunigungs-Engines, um Forschungs- und Industrieanwendungen zu optimieren.

UFM

Die NVIDIA Unified Fabric Manager-Plattform (UFM®) ermöglicht Rechenzentrums
administratoren die effiziente Bereitstellung, Überwachung, Verwaltung und proaktive Fehlerbehebung ihrer InfiniBand-Netzwerkinfrastruktur.

Magnum IO

NVIDIA Magnum IO™ nutzt Netzwerk-IO, netzwerkinternes Computing, Speicher und IO-Management, um Datenbewegungen sowie den Zugriff auf und die Verwaltung von Systemen mit mehreren Grafikprozessoren und mehreren Knoten zu vereinfachen und zu beschleunigen.

Ressourcen

Ihr Cluster konfigurieren

Netzwerkkurse besuchen

Konnten wir überzeugen?