NDR 400G InfiniBand アーキテクチャ

エクサスケール AI 時代の究極のパフォーマンスを実現

記録的なネットワーク通信パフォーマンスを提供

NVIDIA® Mellanox® アーキテクチャの第 7 世代を採用した NDR 400Gb/s InfiniBand は、AI の開発者や科学研究者に、世界で最も困難な課題に立ち向かうための最速のネットワーク パフォーマンスを提供します。NVIDIA Mellanox InfiniBand® はそのための道をソフトウェア定義ネットワーク、In-Network Computing アクセラレーション、リモート ダイレクトメモリ アクセス (RDMA)、最速のスピードとフィードで切り開きます。そこには前世代の HDR InfiniBand を超える優れた進歩の数々が含まれています。

 

NVIDIA NDR 400Gb/s InfiniBand の紹介 (1:48)

HPC および AI のスーパーコンピューター/アプリケーションを強化する

アクセラレーテッド In-Network Computing

現代のハイパフォーマンス コンピューティング (HPC)、AI、ハイパースケール インフラストラクチャは、より速く効率的にデータを分析し、複雑なシミュレーションを実行するために、より高速でインテリジェントなネットワークを必要とします。NVIDIA Mellanox InfiniBand は、SHARPv3 (第 3 世代の NVIDIA Mellanox Scalable Hierarchical Aggregation and Reduction Protocol)、MPI Tag Matching、MPI All-to-All、プログラム可能なコアといった、構成済みでプログラミング可能なコンピューティング エンジンによって In-Network Computing を強化、拡張することで、ノードあたりのコストや ROI を最大限に高めます。

NVIDIA Mellanox InfiniBand アーキテクチャで加速する In-Network Computing
NVIDIA Mellanox NDR InfiniBand アーキテクチャと SHARPv3 テクノロジを導入したデータ センター

無限のスケーラビリティ

NDR InfiniBand と SHARPv3 テクノロジの組み合わせで、ネットワーク経由の大規模なデータ集約のスケーラビリティが事実上、無限になります。最大 64 の並列フローがサポートされ、前世代の HDR InfiniBand と比較して AI 高速化のパワーは 32 倍になります。MPI All-to-All および MPI Tag Matching ハードウェア エンジンは、強化された輻輳制御、アダプティブ ルーティング、自己回復ネットワークなどの機能とともに、HPC および AI クラスターの重要な機能を拡張し、そのパフォーマンスをさらに高めます。

光速のデータ送信

ホスト チャンネル アダプター

PCIe Gen4 と PCIe Gen5 をサポートした NDR InfiniBand ホストチャンネル アダプター (HCA) はさまざまなフォーム ファクターに対応し、シングルまたはデュアルのネットワーク ポートで毎秒 400 ギガビット (Gb/s) を実現します。

NDR InfiniBand HCA には、MPI All-to-All および MPI Tag Matching ハードウェア エンジンを備えた高度な In-Network Computing 機能に加えて、アダプティブ ルーティングや輻輳制御など、QoS (サービス品質) を改善するためのファブリック機能の強化 が含まれています。HCA には、前処理データ アルゴリズムやネットワークまでのアプリケーション コントロール パスの負荷を軽減するプログラム可能なコンピューティング コアも含まれています。パフォーマンスとスケーラビリティが高まり、計算処理と通信間のオーバーラップも向上します。

エッジ スイッチ

NDR InfiniBand ファミリのエッジ スイッチ製品群は、32 個の物理 OSFP (Octal Small Form-factor) コネクタ上に、64 個の NDR ポートまたは 128 個の NDR200 ポートが構成されています。このコンパクトな 1U エッジ スイッチには、空冷バージョンと液冷バージョンがあり、内部管理または外部管理されます。

NDR InfiniBand ファミリのエッジ スイッチ製品群では、総合双方向スループットは毎秒 51.2 テラビット (Tb/s) で、転送能力は毎秒 665 億パケットを超えます。理想的なラックマウント型 InfiniBand ソリューションである NDR InfiniBand エッジ スイッチは、Fat Tree、DragonFly+、多次元 Torus、Hypercube といったさまざまなトポロジで動作し、最高の柔軟性を提供します。

モジュール式スイッチ

NDR InfiniBand ファミリのモジュール式スイッチ製品群には、以下のポート構成があります。

  • NDR (400Gb/s) のポートが 2,048 個または NDR200 (200Gb/s) のポートが 4,096 個
  • NDR (400Gb/s) のポートが 1,024 個または NDR200 (200Gb/s) のポートが 2,048 個

最も大きなモジュール式スイッチの場合、総合双方向スループットは毎秒 1.64 ペタビットになります。これは前世代 HDR InfiniBand モジュール式スイッチの 5 倍です。

中サイズのモジュール式スイッチの場合、総合双方向スループットは 819 Tb/s になります。

トランシーバーとケーブル

NDR InfiniBand の接続オプションには、さまざまなトランシーバーとマルチファイバー プッシュオン コネクタ (MPO)、アクティブ カッパー ケーブル (ACC)、直接接続ケーブル (DAC、1 対 2 および 1 対 4 スプリッターを選択可能) があります。あらゆるトポロジで最高のパフォーマンスを実現するために、最高の柔軟性を提供します。

世界をリードするネットワーク パフォーマンス、スケーラビリティ、効率性

パフォーマンス

  • ポートあたり毎秒 400 Gb の帯域幅
  • 1 つのスイッチで NDR 400 Gb/s のポートを 64 個、または NDR200 200 Gb/s のポートを 128 個
  • 1 つのモジュール式スイッチで NDR ポートを 2,048 個か、NDR200 ポートを 4,096 個
  • 1 台の NDR スイッチ デバイスで毎秒 665 億パケット超 (双方向)

自己の記録を更新

  • HDR に比べてポートあたりの帯域幅が 2 倍
  • HDR に比べてスイッチの密度が 3 倍
  • HDR に比べてスイッチあたり 32 倍のAI 高速化パワー
  • 4 スイッチ層 (3 ホップ) の DragonFly+ ネットワークで 100 万台以上の 400 Gb/s ノード、HDR InfiniBand と比べて 6.5 倍

主な特徴

  • フル トランスポート オフロード
  • RDMA、GPUDirect® RDMA、GPUDirect Storage
  • プログラミング可能な In-Network Computing エンジン
  • MPI All-to-All ハードウェア アクセラレーション
  • MPI Tag Matching ハードウェア アクセラレーション
  • NVIDIA Mellanox SHARPv3
  • 高度なアダプティブ ルーティング、輻輳制御、QoS
  • 自己回復ネットワーク

NDR の詳細については、完全なアーキテクチャ概要をご覧ください。