新技術により、大規模なデータをこれまでより最大 20 倍速く処理
2019 年 11 月 18 日、デンバー - SC19 - NVIDIA は本日、データ サイエンティストや AI およびハイ パフォーマンス コンピューティングの研究者が膨大な量のデータを数時間ではなく、数分で処理できるようにするソフトウェアのスイート、NVIDIA Magnum IO を発表しました。
ストレージおよび入出力のボトルネックを解消するために最適化された、Magnum IO により、複雑な財務分析や気候モデリング、その他の HPC ワークロードの実行など、大規模のデータセットに対処する際、複数のサーバー、複数の GPU コンピューティング ノードでのデータ処理を最大で 20 倍速くします。
NNVIDIA は、DataDirect Networks や Excelero、IBM、Mellanox、WekaIO といったネットワークおよびストレージの業界のリーダー企業と緊密に連係して、Magnum IO を開発してきました。
NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は、次のように述べています。 「収集またはシミュレーションされた大量のデータの処理は、AI のようなデータ主導型サイエンスの要です。データの規模と速度が指数関数的な成長を続けているなか、そのようなデータの処理が、データセンターの最大の課題と費用の 1 つとなっています。 桁外れの演算では、桁外れの I/O が必要となります。Magnum IO は、コンピューティングに革命をもたらした、NVIDIA の GPU アクセラレーションを I/O およびストレージにもたらすことで、これを可能にします。今、AI の研究者とデータ サイエンティストは、データ処理を待つ必要がなくなり、自身のライフワークに集中することができるようになりました」
Magnum IO の中核をなすのが GPUDirect で、CPU をバイパスして、GPU、ストレージおよびネットワーク デバイスによって提供される「オープン ハイウェイ」上をデータが移動する経路を提供します。GPUDirect は、NVIDIA NVLink™ および NCCL、ならびに OpenMPI や UCX といった、多様な通信インターコネクトと API との互換性があり、ピアーツーピアと RDMA の要素から構成されています。
その最新の要素は GPUDirect Storage で、研究者はがストレージを利用するときに CPU をバイパスし、シミュレーション、分析またはビジュアライゼーションのためにデータ ファイルにすばやくアクセスできるようになります。
NVIDIA Magnum IO ソフトウェアは現在、GPUDirect Storage 以外が公開中で、GPUDirect Storage は、一部のアーリー アクセスのお客様だけに提供されています。GPUDirect Storage のより広範なリリースは、2020 年前半を予定しています。
エコシステムからの支持 「現代の HPC と AI の研究者は、信じられない量のデータを駆使しており、その量が 1 PB を超えることもよくあるため、その課題に最もうまく対処できる、新しいレベルの最先端テクノロジが求められています。NVIDIA の Magnum IO ソフトウェア スイートを当社の EXA5 対応パラレル ストレージ アーキテクチャと組み合わせて活用することにより、DDN は、ペタバイト規模のデータ ストアから高帯域幅で GPU に直接アクセスできる、新しい、直接的なデータパスを切り開いています。これは、これまでには不可能なアプローチでした」 — DDN 社最高研究責任者、スヴェン オーメ (Sven Oehme) 氏
「HPCおよび AI の最先端の研究者が利用しなければならないデータの量は飛躍的に増大しつづけており、I/O は多くの人々にとって管理するのが困難な課題となっています。IBM Spectrum Scale は、AI を加速し、データ集約型のワークロードを実行することを求めている組織の要望に対処するためのものです。IBM Spectrum Scale と NVIDIA の GPU アクセラレーションを使用することにより、お客様は I/O のボトルネックを緩和し、データから必要な洞察をより素早く得ることができます」 — IBM 社ストレージ製品管理担当バイスプレジデント、サム ワーナー (Sam Werner) 氏
「HPCおよび AI の最先端の研究者は最先端のテクノロジを提供する Mellanox を選んで、膨大な量のデータをできる限り効率的かつ迅速に移動および処理しようとしています。私たちは NVIDIA とともに、Magnum IO が Mellanox の最先端の InfiniBand およびイーサネット インターコネクト ソリューションとシームレスに連動し、お客様が相互に、一体となってデータのボトルネックに対処し、サイエンス、研究および製品開発といった活動を進められるようにしています」 — Mellanox Technologies 社ソフトウェア アーキテクチャ担当シニア バイスプレジデント、ドロール ゴールデンバーグ (Dror Goldenberg) 氏
NVIDIA について 1999 年における NVIDIA (NASDAQ 表示: NVDA)による GPU の発明は、PC ゲーミング市場の成長に爆発的な拍車をかけ、現代のコンピューター グラフィックスを再定義し、並列コンピューティングに革命的変化を起こしました。最近では、GPU ディープラーニングが最新の AI (次世代コンピューティング) に火をつけ、世界を知覚し理解することができるコンピューター、ロボット、自律走行車の脳として GPU は機能しています。詳細は、こちらのリンクから: www.nvidia.com/ja-jp/
NVIDIA Magnum IO および NVIDIA GPUDirect Storage の性能、利益、影響および可用性、データの規模が指数関数的に増加し、その処理がデータセンターの最も大きな課題かつ費用の一つとなっていること、HPCおよび AI の研究者が利用しなければならないデータの量が増大しつづけていること、および IBM Spectrum Scale と NVIDIA の GPU アクセラレーションを使用することによる影響など、本プレスリリースにおける一定の記載は将来の見通しに関する記述であり、予測とは著しく異なる結果を生ずる可能性があるリスクと不確実性を伴っています。かかるリスクと不確実性は、世界的な経済環境、サードパーティに依存する製品の製造・組立・梱包・試験、技術開発および競合による影響、新しい製品やテクノロジの開発あるいは既存の製品やテクノロジの改良、当社 製品やパートナー企業の製品の市場への浸透、デザイン・製造あるいはソフトウェアの欠陥、ユーザーの嗜好および需要の変化、業界標準やインターフェイスの変更、システム統合時に当社製品および技術の予期せぬパフォーマンスにより生じる損失などを含み、その他のリスクの詳細に関して は、Form 10-K での NVIDIA のアニュアル レポートならびに Form 10-Q での四半期レポートなど、米証券取引委員会 (SEC) に提出されている NVIDIA の報告書に適宜記載されます。SEC への提出書類は写しが NVIDIA の Web サイトに掲載されており、NVIDIA から無償で入手すること ができます。これらの将来予測的な記述は発表日時点の見解に基づくものであって将来的な業績を保証するものではなく、法律による定めがある 場合を除き、今後発生する事態や環境の変化に応じてこれらの記述を更新する義務を NVIDIA は一切負いません。
© 2019 NVIDIA Corporation. All rights reserved. NVIDIA、NVIDIA のロゴ、Magnum IO および NVLink は、米国およびその他の国における NVIDIA Corporation の商標または登録商標です。その他の会社名および製品名は、それぞれの所有企業の商標である可能性があります。機能、価格、可用性、および仕様は予告なしに変更されることがあります。