NDR 400G InfiniBand
アーキテクチャ

エクサスケール AI 時代に向けて究極のパフォーマンスを実現

InfiniBand ネットワーク ソリューション

NVIDIA® Mellanox® InfiniBand インターコネクトは、ネットワーク上でデータ アルゴリズムを実行する In-Network Computing テクノロジを組み込んでおり、高速でレイテンシの極めて低いスケーラブルなソリューションを提供。「データ中心」世代のデータ センターを実現します。InfiniBand テクノロジは、あらゆる規模のスーパーコンピューター、人工知能 (AI)、クラウド データ センターの運用を実現すると同時に、運用コストやインフラストラクチャの複雑性を軽減します。

InfiniBand アダプター - AI、データ サイエンス、HPC ワークロードを高速化する

InfiniBand アダプター - AI、データ サイエンス、HPC ワークロードを高速化する

InfiniBand ホスト チャネル アダプター (HCA) は高速で革新的なハードウェア アクセラレーションを活用します。ハイパフォーマンス コンピューティング、人工知能 (AI)、機械学習、クラウド、ストレージ、データベース、組み込みアプリケーション向けに極めて低い遅延を実現するとともに、高度なアプリケーション高速化エンジンを提供します。また、運用コストを下げ、全体的な ROI を向上させます。

プログラミング可能な DPU

プログラミング可能な DPU

高性能ソフトウェアとプログラミング機能を備えた NVIDIA BlueField® データ プロセッシング ユニット (DPU) は、データセンターにさまざまなレベルのパフォーマンス、セキュリティ、機能性を提供し、革新的なネットワークと I/O の高速化を実現します。

InfiniBand スイッチ - 他に類を見ないパフォーマンスとエコノミクスを大規模に実現

InfiniBand スイッチ - 他に類を見ないパフォーマンスとエコノミクスを大規模に実現

InfiniBand スイッチ システムは最高のパフォーマンスとポート密度を提供します。Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ や Self-Healing Interconnect Enhancement for Intelligent Datacenters (SHIELD™) などの革新的な機能に加え、斬新な QoS (サービス品質)、輻輳制御、アダプティブ ルーティングがシステム パフォーマンス、スケーラビリティ、ネットワーク利用率を最大限まで押し上げます。

InfiniBand とイーサネットの橋渡しをするルーターとゲートウェイ システム

InfiniBand とイーサネットの橋渡しをするルーターとゲートウェイ システム

InfiniBand システムは、InfiniBand ルーター、InfiniBand 長距離接続 (NVIDIA Mellanox MetroX®-2)、InfiniBand to Ethernet ゲートウェイ システム (NVIDIA Mellanox Skyway™) を利用し、最大級のスケーラビリティとサブネット分離を実現します。ゲートウェイ システムは、高性能、低レイテンシの InfiniBand データ センターを (イーサネット ストレージなど) 外部のイーサネット インフラストラクチャに、拡張性と効率に優れた方法で接続する目的で利用されます。

LinkX InfiniBand ケーブルおよびトランシーバー

LinkX InfiniBand ケーブルおよびトランシーバー

NVIDIA Mellanox LinkX® のケーブルとトランシーバーは、ハイ パフォーマンス コンピューティング ネットワークのパフォーマンスを最大化するように設計されており、InfiniBand 機器間で必要とされる高い帯域幅、低いレイテンシ、信頼性の高い接続を提供します。

InfiniBand の強化された機能

In-Network Computing

In-Network Computing

NVIDIA Mellanox Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ は、CPU からスイッチ ネットワークまでの通信の負荷全体を軽減します。この革新的な手法により、ネットワークを横断するデータの量が減少するとともに、MPI オペレーションの時間が短縮されます。

自己回復ネットワーク

自己回復ネットワーク

HPC では、クラスタは高速で信頼性の高いインターコネクトに依存します。NVIDIA Mellanox SHIELD™ はリンク障害を克服します。ソフトウェアベースの他のソリューションに比べ、ネットワークの回復時間が 5000 分の 1 に短縮されます。SHIELD は、最新世代の InfiniBand スイッチに既に組み込まれているインテリジェンスを活用します。

サービス品質

サービス品質

InfiniBand は、高度な輻輳制御やアダプティブ ルーティングなど、実証済みの QoS 機能を備えた、ただ 1 つの高性能インターコネクト ソリューションであり、比類のないネットワーク効率を実現します。

ネットワーク トポロジ

ネットワーク トポロジ

InfiniBand では管理が完全に集中化されており、あらゆるトポロジに対応しています。よく使われるトポロジには、Fat Tree、Hypercube、多次元 Torus、Dragonfly+ などがあります。特定のアプリケーション通信パターン向けのトポロジを設計する場合、最適化されたルーティング アルゴリズムによって、パフォーマンスは最適化されます。

最適なパフォーマンスのためのソフトウェア

MLNX_OFED

OpenFabrics Alliance (www.openfabrics.org) の OFED が、メジャーなハイ パフォーマンス I/O ベンダーによる共同開発とテストにより強化されました。NVIDIA MLNX_OFED は、NVIDIA がテストしてパッケージ化した OFED です。

HPC-X

NVIDIA Mellanox HPC-X® ScalableHPC Toolkit は、MPI と SHMEM/ PGAS の包括的ソフトウェア スイートです。HPC-X によってデプロイ期間が短縮され、アプリケーション パフォーマンスが最大化します。サードパーティ製のツールやライブラリをライセンス契約する場合に比べ、複雑さもなく、コストもかかりません。

UFM

NVIDIA Mellanox UFM® (Unified Fabric Management) プラットフォームは、高度なリアルタイム ネットワーク テレメトリと、AI を動力とするサイバー インテリジェンスならびに分析を組み合わせたものであり、ファブリック リソースの利用率を上げ、競争上の優位性を与えながら OPEX を減らします。

MAGNUM IO

Magnum IO は、ネットワーク  IO、In-Network Computing、ストレージおよび IO 管理を活用し、マルチ GPU、マルチノード システムのデータ移動、アクセス、管理の簡素化と高速化を行います。Magnum IO は、NVIDIA GPU と NVIDIA ネットワーキング ハードウェアのトポロジで最適なスループットと低レイテンシを実現します。

構成ツール

アカデミー オンライン コース

製品購入の検討