NVIDIA Magnum IO

GPU 対応の最新データ センターのための IO サブシステム

データ センターのストレージと ネットワーク IO のパフォーマンスを最大化

コンピューティングの新しい単位はデータ センターです。その中核にあるのが NVIDIA GPU と NVIDIA ネットワークです。アクセラレーテッド コンピューティングでは、パフォーマンス最大化のため、高速化された入力 / 出力 (IO) が要求されます。最新データ センターの IO サブシステム、NVIDIA® Magnum IO™ は、並列、非同期、インテリジェントなデータ センター IO 向けのアーキテクチャで、マルチ GPU やマルチノード高速化のためのストレージとネットワーク IO のパフォーマンスを最大化します。

Magnum IO の主な利点

IO パフォーマンスの最適化

CPU を迂回することで、GPU メモリ、ネットワーク、ストレージ間の直接 IO を可能にし、10 倍の高帯域幅を実現します。

システムのバランスと利用率

CPU の競合を軽減し、ピーク時の IO 帯域幅を提供するバランスに優れた GPU 対応システムを構築して、最大で CPU コア数を 10 分の 1 に、CPU 使用率を 30 分の 1 に抑えます。

シームレスな統合

現在および将来のプラットフォームのために、レイテンシの影響が大きい細粒度データ転送、帯域幅が重要になるブロックサイズの大きなデータ転送、集合通信など、どの場合にも最適化した実装を提供します。

Magnum IO 最適化スタック

Magnum IO は、ストレージ IO、ネットワーク IO、ネットワーク内コンピューティング、IO 管理を活用し、マルチ GPU、マルチノード システムのデータ移動、アクセス、管理の簡素化と高速化を行います。Magnum IO は NVIDIA CUDA-X™ライブラリをサポートし、NVIDIA GPU と NVIDIA ネットワークのハードウェア トポロジを幅広く最大限に活用することで、最適なスループットと低レイテンシを実現します。

 [開発者ブログ] Magnum IO -モダンなデータ センターでIO を高速化

Magnum IO Optimization Stack

ストレージ IO

マルチノード、マルチ GPU のシステム、低速な CPU の環境では、シングル スレッドのパフォーマンスがローカルまたはリモートのストレージ デバイスからのデータ アクセスに重大な影響を及ぼします。ストレージ IO を高速化することで、GPU は CPU とシステム メモリを迂回して、毎秒 200 ギガビットの NIC 8 基経由でリモート ストレージにアクセスし、最大で毎秒 1.6 テラビットの生ストレージ帯域幅を実現します。

採用テクノロジ:

ネットワーク IO

NVIDIA NVLink® の構造と RDMA ベースのネットワーク IO 高速化により、CPU を迂回して GPU から GPU への直接データ転送をライン レートで可能にしながら、IO のオーバーヘッドを削減します。

採用テクノロジ:

ネットワーク内コンピューティング

ネットワーク内コンピューティングは、エンドポイントへのトラバースや途中のホップにより生じるレイテンシを排除しながら、ネットワーク内で処理を行います。データ処理ユニット (DPU) は、事前構成済みのデータ処理エンジンやプログラマブル エンジンなどを含むソフトウェア定義のネットワーク ハードウェア アクセラレーテッド コンピューティングを導入します。

採用テクノロジ:

IO 管理

コンピューティング、ネットワーク、ストレージ全体で IO の最適化を行うためには、ユーザーは高度なテレメトリと幅広いトラブルシューティング手法を必要とします。Magnum IO 管理プラットフォームを使用することで、研究および産業用データ センターのオペレーターは、最新データ センター構造のプロビジョニング、モニタリング、管理、予防的メンテナンスを強化することができます。

採用テクノロジ:

アプリケーション全体での IO の高速化

Magnum IO インターフェイスは、NVIDIA CUDA-X HPC (ハイ パフォーマンス コンピューティング) および人工知能 (AI) ライブラリとの組み合わせで、AI から科学分野のビジュアライゼーションまで、幅広いユースケースの IO を高速化します。

  • データ分析
  • ハイパフォーマンス コンピューティング
  • ディープラーニング
データ分析

データ分析

現在、データ サイエンスと機械学習 (ML) は、世界最大級のコンピューティング セグメントとなっています。予測型 ML モデルの精度をわずかに改良することで、最終的に数十億ドル利益につながることがあります。精度向上のため、RAPIDS アクセラレーター ライブラリには高速化された UCX ベースの Apache Spark Shuffle が組み込まれており、GPU から GPU への通信や RDMA の機能を活用する設定が可能です。NVIDIA ネットワーキング、Magnum IO ソフトウェア、GPU 対応 Spark 3.0、NVIDIA RAPIDS™ と組み合わせることで、NVIDIA データ センター プラットフォームは、これらの大量のワークロードをかつてないレベルのパフォーマンスと効率性による独自のスタイルで高速化します。

 Adobe が Databricks 上で Spark 3.0 によるモデル トレーニングを 7 倍高速化し、コストを 90% 削減

 TPCx-BB のパフォーマンスが 19.5 倍高速な UCX と RAPIDS データ サイエンス ソフトウェアが NVIDIA DGX™ A100 で活躍

ハイパフォーマンス コンピューティング

ハイパフォーマンス コンピューティング

HPC は現代科学の基礎となる柱です。次世代の新しい技術を開発するために、サイエンティストたちは複雑な分子に対する理解度を上げるシミュレーションに信頼を置いています。そのシミュレーションによって薬を発見したり、物理学から新しいエネルギー源の可能性を探ったり、大気データから極端な天候パターンを今までより高い精度で予測し、それに備えたりします。Magnum IO は、RDMA、NVIDIA GPUDirect®、NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ 機能など、ハードウェアレベルの高速化エンジンおよびスマートなオフロードを導入し、HDR 200 Gb/s の InfiniBand による高帯域幅と極めて低いレイテンシを補強します。これにより、最高レベルのパフォーマンスと非常に効率的な HPC および ML のデプロイをあらゆる規模で実現します。

ボリューム最大級のインタラクティブ ビジュアライゼーション - 150 TB の NASA 火星探査シミュレーション

ディープラーニング

ディープラーニング

対話型 AI やディープ レコメンダー システムなど、次のレベルの課題に挑む AI モデルは爆発的に複雑化し続けています。NVIDIA の Megatron-BERT のような対話型 AI モデルは、ResNet-50 などの画像分類モデルと比較すると 3,000 倍ものコンピューティング性能を必要とします。研究者が AI にできることの限界を追求し続けるためには、パワフルなパフォーマンスと大規模のスケーラビリティが必要です。HDR 200Gb/s の InfiniBand ネットワーキングと Magnum IO ソフトウェア スタックの組み合わせは、1 つのクラスター内の数千基におよぶ GPU に効率的なスケーラビリティを提供します。

Facebook データセンターのディープラーニング トレーニング: スケールアップとスケールアウト システムのデザイン

登録してニュースと最新情報を受け取る。