科学コンピューティング、AI、クラウド データ センターにエンドツーエンドのハイパフォーマンス ネットワークを導入します。
複雑なワークロードでは、高解像度のシミュレーション、大量のデータセット、高度に並列化されたアルゴリズムを極めて高速に処理する必要があります。このようなニーズが増加し続ける中、世界で唯一、負荷を完全にオフロードできる In-Network Computing プラットフォームである NVIDIA InfiniBand は、シンプルかつ少ないコストで発見までの時間を短縮するために、飛躍的なパフォーマンスの向上を実現します。
NVIDIA® ConnectX® InfiniBand ホスト チャネル アダプター (HCA) は、極めて低いレイテンシ、究極のスループット、革新的な NVIDIA In-Network Computing エンジンを提供し、現代のワークロードに必要な高速化、スケーラビリティ、豊富な機能をもたらすテクノロジを届けます。
NVIDIA® BlueField® DPU は、パワフルなコンピューティング、高速ネットワーキング、広範囲のプログラミング機能により、きわめて要求の厳しいワークロード向けのソフトウェアデファインドでハードウェア アクセラレーテッドなソリューションを実現します。アクセラレーテッド AI および科学コンピューティングからクラウドネイティブ スーパーコンピューティングまで、BlueField はまったく新しい可能性を広げます。
InfiniBand スイッチ システムは最高のパフォーマンスとポート密度を提供します。NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ などの革新的な機能と、自己回復ネットワーク機能、サービス品質、強化された仮想レーン マッピング、NVIDIA In-Network Computing 高速化エンジンなどの高度な管理機能により、工業、AI 、科学等のアプリケーションのパフォーマンスが大幅に向上します。
InfiniBand システムは、InfiniBand ルーター、InfiniBand to Ethernet ゲートウェイ システムを使用することで、最高のスケーラビリティとサブネット分離を実現します。このゲートウェイ システムは、スケーラブルかつ効率的な方法で、InfiniBand データ センターをイーサネット インフラに接続するために使用します。
NVIDIA MetroX® 長距離 システムは、離れた場所にある InfiniBand のデータ センター、ストレージ、その他の InfiniBand プラットフォームをシームレスに接続できます。InfiniBand の到達範囲は最大 40 キロメートルまで拡張できます。リモート データ センター間で、またはデータ センターとリモート ストレージ インフラ間でネイティブ InfiniBand 接続を可能にし、高可用性や災害復旧に利用できます。
LinkX® のケーブルとトランシーバーは、HPC ネットワークのパフォーマンスを最大限に引き出すために設計されており、InfiniBand 機器間で高帯域幅、低レイテンシ、高信頼性接続を実現します。
NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ は、集合通信の負荷をスイッチ ネットワークに分散し、ネットワークを通過するデータ量と Message Passing Interface (MPI) 処理に要する時間を削減し、データ センターの効率性を向上させます。
自己回復ネットワーク機能を備えた NVIDIA InfiniBand はリンクの障害を克服し、他のソフトウェアベースのソリューションに比べ、5,000 倍も速くネットワークを回復することができます。このような機能においては、最新世代の InfiniBand スイッチに組み込まれているインテリジェンスが活用されています。
InfiniBand は、高度な輻輳制御やアダプティブ ルーティングなどの実証済みのサービス品質機能を備えた、唯一のハイパフォーマンス相互接続ソリューションで、比類のないネットワーク効率を実現します。
InfiniBand は管理を一元化し、Fat Tree、Hypercube、多次元 Torus、Dragonfly+ など、あらゆるトポロジをサポートします。ルーティング アルゴリズムによって、特定のアプリケーション通信パターンに合わせたトポロジを設計する際にパフォーマンスが最適化されます。
OpenFabrics Alliance による OFED は、ハイパフォーマンス I/O のメーカーにより、共同で開発とテストが行われてきました。NVIDIA MLNX_OFED は NVIDIA がテストを行ったバージョンの OFED です。
NVIDIA HPC-X® は MPI と SHMEM/PGAS の包括的ソフトウェア スイートです。HPC-X は、InfiniBand In-Network Computing とアクセラレーション エンジンを活用し、研究向けアプリケーションや工業向けアプリケーションを最適化します。
NVIDIA Unified Fabric Manager (UFM®) プラットフォームにより、データ センター管理者は、InfiniBand ネットワークの効率的なプロビジョニング、監視、管理、およびプロアクティブなトラブルシューティングを行うことができます。
NVIDIA Magnum IO™ は、ネットワーク IO、In-Network Computing、ストレージ、IO 管理を使用して、マルチ GPU/マルチノード システムのデータ移動、データ アクセス、データ管理を簡素化および高速化します。