Magnum IO

多 GPU、多節點網路和儲存裝置的 IO 最佳化堆疊

滿足運算密集工作負載的頻寬需求

GPU 提供運算密集工作負載所需的能力,但資料消耗提高了對輸入/輸出 (IO) 頻寬的需求。NVIDIA Magnum IO 是一組可整合運算、網路、檔案系統和儲存裝置的 NVIDIA API,能讓多 GPU、多節點加速系統徹底發揮 IO 效能。它連接 CUDA-X 函式庫,從人工智慧到視覺化,加速各式各樣的 IO 工作負載。

GPU 最佳化網路和儲存裝置 IO 效能

Magnum IO 整合基礎架構元素,可徹底發揮儲存空間和網路 I/O 的效能和功能。主要優勢包括:

最佳化的 IO 效能: 可繞過 CPU,在 GPU 記憶體和網路儲存裝置之間啟用直接 IO。

系統平衡和使用率: 可減緩 CPU 爭用問題,進而建立更平衡的 GPU 加速系統,並以數量少 10 倍的 CPU 核心提供最高 IO 頻寬。

順暢整合: 無論資料傳輸是延遲敏感、頻寬敏感或集體,都能為目前和未來的平台提供最佳化實作。

IO 最佳化堆疊

Magnum IO 包含創新的 IO 最佳化技術,例如 NCCL、 NVIDIA® GPUDirect RDMA 和 NVIDIA Fabric Manager。 GPUDirect Storage 是堆疊的重要功能。它可在 GPU 記憶體和儲存裝置之間開啟直接資料路徑,連帶繞過 CPU。此直接路徑可以提高頻寬、降低延遲,及減少 CPU 和 GPU 的使用率負載。利用 Magnum IO 處理 IO 問題可讓系統更平衡。

IO Optimization Stack

深入瞭解支援 Magnum IO 的技術。