Nutzen Sie End-to-End-Hochleistungsnetzwerke für wissenschaftliche Computing-, KI- und Cloud-Rechenzentren.
Komplexe Workloads erfordern ultraschnelle Verarbeitung von hochauflösenden Simulationen, extrem großen Datensätzen und hochgradig parallelisierten Algorithmen. Da diese Computing-Anforderungen weiter wachsen, bietet NVIDIA Quantum InfiniBand – die weltweit einzige vollständig Offload-fähige In-Network-Computing-Plattform – den dramatischen Leistungssprung, der erforderlich ist, um eine unübertroffene Leistung in High-Performance-Computing (HPC), KI und Hyperscale-Cloud-Infrastrukturen mit weniger Kosten und Komplexität zu erreichen.
Als Teil der NVIDIA Quantum InfiniBand Netzwerkplattform bieten die NVIDIA® ConnectX® InfiniBand Host-Channel-Adapter (HCAs) besonders niedrige Latenz, extrem hohen Durchsatz und innovative NVIDIA In-Network Computing-Engines, um Beschleunigung, Skalierbarkeit und funktionsreiche Technologie bereitzustellen, die für moderne Workloads erforderlich sind.
Die neue NVIDIA® BlueField®-DPU kombiniert leistungsstarkes Computing, Hochgeschwindigkeitsnetzwerke und umfangreiche Programmierbarkeit, um softwaredefinierte, hardwarebeschleunigte Lösungen für die anspruchsvollsten Workloads bereitzustellen. Von beschleunigtem KI- und wissenschaftlichem Computing bis hin zu Cloud-nativem Supercomputing – BlueField definiert die Möglichkeiten neu.
NVIDIA Quantum InfiniBand Switch-Systeme bieten marktführende Leistung und Portdichte. Innovative capabilities such as NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ and advanced management features such as self-healing network capabilities, quality of service, enhanced virtual lane mapping, and NVIDIA In-Network Computing acceleration engines provide a performance boost for industrial, AI, and scientific applications.
NVIDIA Quantum InfiniBand Systeme bieten die höchste Skalierbarkeit und Subnetzisolierung mithilfe von InfiniBand-Routern und InfiniBand-to-Ethernet-Gateway-Systemen.. The latter is used to enable a scalable and efficient way to connect InfiniBand data centers to Ethernet infrastructures.
NVIDIA MetroX® Long-Haul-Systeme können nahtlos Verbindungen mit verteilten NVIDIA Quantum InfiniBand Rechenzentren, Speichern und anderen InfiniBand-Plattformen herstellen.. They can extend the reach of InfiniBand up to 40 kilometers, enabling native InfiniBand connectivity between remote data centers or between data center and remote storage infrastructures for high availability and disaster recovery.
LinkX®-Kabel und -Transceiver sind auf die Maximierung der Leistung von HPC-Netzwerken ausgelegt und benötigen Verbindungen mit hoher Bandbreite, geringer Latenz und hoher Zuverlässigkeit zwischen InfiniBand-Elementen.
Nutzen Sie dieses Online-Tool, um Cluster auf der Grundlage von Fat Tree mit zwei Ebenen von Switch-Systemen und Dragonfly+-Topologien zu konfigurieren.
Erkunden Sie in der NVIDIA Academy tiefgehende technische Schulungsthemen zu NVIDIA Quantum InfiniBand-Netzwerktechnik.
Besuchen Sie den NVIDIA Marketplace, um mehr Informationen über den Kauf von NVIDIA-Netzwerklösungen zu erhalten.