Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
Dank hoher Geschwindigkeiten und netzwerkinternem Computing erreichen NVIDIA ConnectX InfiniBand Smart Adapters extreme Leistung in großem Maßstab. NVIDIA ConnectX senkt die Kosten pro Arbeitsgang und bieten somit einen höheren ROI für High Performance Computing (HPC), maschinelles Lernen, erweiterte Speicherfunktionen, Cluster-Datenbanken, eingebettete I/O-Anwendungen mit niedriger Latenz und vieles mehr.
Die ConnectX-8 InfiniBand SuperNIC bietet 800 Gigabit pro Sekunde (Gb/s) Datendurchsatz mit Unterstützung für NVIDIA In-Network Computing Beschleunigungs-Engines, um die Leistung und robuste Funktion zu liefern, die für KI-Fabriken mit einer Billion-Parameter-Skalierung und wissenschaftliche Computing-Workloads erforderlich sind.
Der ConnectX-7 Smart Host Channel Adapter (HCA) bietet eine extrem niedrige Latenz, 400 Gb/s Durchsatz und innovative NVIDIA In-Network Computing Beschleunigungs-Engines für zusätzliche Beschleunigung. ConnectX-7 bietet die Skalierbarkeit und die funktionsreiche Technologie, die für Supercomputer, künstliche Intelligenz und Hyperscale-Cloud-Rechenzentren benötigt wird.
Der ConnectX-6-Smart-Host-Channel-Adapter (HCA) mit NVIDIA Quantum InfiniBand-Architektur bietet hohe Leistung und NVIDIA In-Network Computing-Beschleunigungs-Engines zur Maximierung der Effizienz in HPC-, KI-, Cloud-, Hyperscale- und Speicherplattformen.
Der ConnectX-5-Smart-Host-Channel-Adapter (HCA) mit intelligenten Beschleunigungsmodulen verbessert HPC, ML und Datenanalysen sowie Plattformen für Clouds und Speicherung. Mit Unterstützung für zwei InfiniBand-Ports mit 100 Gbit/s und Ethernet-Netzwerkkonnektivität, PCIe Gen3- und Gen4-Server-Konnektivität, sehr hohen Nachrichtenraten, PCIe-Switches und NVMe over Fabric-Entlastungen ist ConnectX-5 eine leistungsstarke und kostengünstige Lösung für eine Vielzahl von Anwendungen und Märkten.
ConnectX-4 Virtual Protocol Interconnect (VPI) smart adapters support EDR 100Gb/s InfiniBand and 100Gb/s Ethernet connectivity. Providing data centers high performance and flexible solutions for HPC (high performance computing), Cloud, database, and storage platforms, ConnectX-4 smart adapters combine 100Gb/s bandwidth in a single port with the lowest available latency, 150 million messages per second and application hardware offloads.
ConnectX-3 Pro smart adapters with Virtual Protocol Interconnect (VPI) support InfiniBand and Ethernet connectivity with hardware offload engines for Overlay Networks ("Tunneling"). ConnectX-3 Pro provides great performance and flexibility for PCI Express Gen3 servers deployed in public and private clouds, enterprise data centers, and high-performance computing.
Das Open Compute Project (OCP) beschreibt einen Mezzanine-Formfaktor mit erstklassiger Effizienz und ermöglicht so die höchste Rechenzentrumsleistung.
Die innovative NVIDIA Multi-Host®-Technologie ermöglicht es mehreren Compute- oder Speicherhosts, eine Verbindung mit einem einzigen Adapter herzustellen.
Die NVIDIA Socket Direct®-Technologie ermöglicht den direkten PCIe-Zugriff auf mehrere CPU-Sockel, sodass der Netzwerkverkehr nicht den prozessverbindenden Bus durchlaufen muss.
ConnectX-6: Der weltweit erste 200G-Adapter
NVMe over Fabrics-Lösungen
Socket Direct
ConnectX-7 InfiniBand
ConnectX-6 InfiniBand
ConnectX-5 InfiniBand
ConnectX InfiniBand-Adapter-Portfolio
HPC und Biowissenschaften
NVIDIA GPUDirect RDMA
NVIDIA Quantum-2 InfiniBand Plattform
Kaufen Sie NVIDIA RTX-Grafikkarten über unseren Shop oder über unsere Partner.
Talk to an NVIDIA product specialist about your professional needs.
Signup for NVIDIA RTX and design and visualization news from NVIDIA.