Magnum IO

マルチ GPU/マルチノードのネットワークおよびストレージ IO 最適化スタック

計算負荷の高いワークロードの帯域幅要求に応える

GPU からは計算負荷の高いワークロードに必要なパワーが与えられますが、そのデータ消費により入力/出力 (I/O) 帯域幅の要求が増えます。NVIDIA Magnum IO は、コンピューティング、ネットワーク、ファイル システム、ストレージを統合し、マルチ GPU/マルチノードの高速システムの IO パフォーマンスを最大化する NVIDIA の API セットです。 CUDA-X ライブラリと連携し、AI からビジュアライゼーションまで、さまざまなワークロードで IO を高速化します。

GPU 最適化によるネットワーク/ストレージ IO パフォーマンス

Magnum IO では、インフラストラクチャ要素を統合して、ストレージ/ネットワークの I/O パフォーマンスと機能性を最大化します。主な特長:

IO パフォーマンスの最適化: CPU をバイパスすることで、GPU メモリとネットワーク ストレージ間の直接 IO を可能にします。

システムのバランスと利用率: CPU の競合を軽減し、バランスに優れた GPU 対応システムを構築します。また、10 分の 1 の CPU コア数でピークの IO 帯域幅を実現します。

シームレスな統合: データ転送が待ち時間に左右される場合でも、帯域幅に左右される場合でも、その両方でも、現行のプラットフォームも将来のプラットフォームも最適な方法で導入できます。

IO 最適化スタック

Magnum IO には、NCCL、NVIDIA® GPUDirect RDMA、NVIDIA Fabric Manager など、革新的な IO 最適化テクノロジが含まれています。GPUDirect Storage はスタックの重要な機能です。GPU メモリと記憶域の間で直接的なデータ パスを開通し、CPU を完全にバイパスします。この直接的なパスにより、帯域幅を増やし、待ち時間を短くし、CPU と GPU の利用負荷を下げることができます。Magnum IO で IO 問題に対処することでバランスに優れたシステムを構築できます。

IO Optimization Stack

Magnum IO にパワーを与えるテクノロジの詳細をご覧ください。