NVIDIA HGX-2

NVIDIA Tesla V100 GPU と NVSwitch を搭載

AI と HPC のための世界で最も高性能な多精度コンピューティング プラットフォーム

AI と HPC (ハイ パフォーマンス コンピューティング) が世界を変える、インテリジェンスの新時代が到来しました。自動運転車両から地球気象シミュレーションまで、解決に膨大な計算処理資源を要する新しい課題が現れています。NVIDIA HGX-2 は多精度演算処理用として設計されており、高精度科学演算のパワーと低精度の AI 演算処理のスピードを組み合わせることで、柔軟かつ強力な 1 つのプラットフォームを形成し、大きな課題を解決します。

世界最大の GPU を実現する

16 基の NVIDIA® Tesla® V100 GPU と NVIDIA NVSwitch™ を搭載した HGX-2 は、前例のない計算処理能力、帯域幅、メモリ トポロジを備え、モデルを高速かつ効率的にトレーニングします。16 基の Tesla V100 GPU は統合された 1 個の 2 petaFLOP アクセラレータとして動作し、合計 GPU メモリは 0.5 テラバイト (TB) になります。「世界最大の GPU」として機能し、計算処理能力を最も必要とする作業負荷に対応できます。

世界最大の GPU を実現する
AI Training: HGX-2 Replaces 300 CPU-Only Server Nodes

次世代 AI の高速パフォーマンスの動力となる

AI モデルは急激に複雑化しており、その動作には大容量のメモリ、複数の GPU、GPU 間の超高速接続を必要とします。すべての GPU と統合メモリを接続するした NVSwitch によって HGX-2 は先進的な AI を短時間でトレーニングするために新しいモデルを処理するパワーを発揮します。1 台の HGX-2 は 300 基の CPU を搭載したサーバーの代わりになります。コストを大幅に節約し、置き場所を取らず、データ センターの省エネに貢献します

HPC: HGX-2 Replaces 60 CPU-Only Server Nodes

最高のパフォーマンスを誇る HPC スーパーノード

HPC アプリケーションは、秒単位で膨大な数の計算を実行する計算処理能力を備えた強力なサーバー ノードを必要とします。各ノードの計算処理密度を上げることで、必要なサーバーの数が劇的に減ります。結果的に、データ センターの消費電力が大幅に減少し、コストが大きく削減されます。占有空間も少なくなります。HPC シミュレーションの高次元行列乗算では、計算を容易に実行するためにプロセッサは多数の隣接プロセッサからデータを取得する必要があります。そこで、NVSwitch で GPU を接続することが理想的となります。1 台の HGX-2 サーバーは CPU のみのサーバー 60 台に匹敵します。

全帯域幅コンピューティングのための NVSwitch

NVSwitch を利用すると、すべての GPU が互いに毎秒 2.4 TB という全帯域幅で通信できます。AI と HPC が直面する最大級の問題を解決します。すべての GPU が 計 0.5 TB の HBM2 メモリに自由にアクセスし、最大級のデータセットを処理します。1 台の統合サーバー ノードを可能にする NVSwitch は、AI と HPC の複雑なアプリケーションを劇的に加速します。

全帯域幅コンピューティングのための NVSwitch

HGX-1 と HGX-2 を比較

HGX-1 HGX-2
パフォーマンス 1 petaFLOP テンソル演算
125 teraFLOPS 単精度
62 teraFLOPS 倍精度
2 petaFLOPS テンソル演算
250 teraFLOPS 単精度
125 teraFLOPS 倍精度
GPUs NVIDIA Tesla V100 が 8 基 NVIDIA Tesla V100 が 16 基
GPU メモリ 合計 256GB 合計 512GB
NVIDIA CUDA® コア数 40,960 81,920
NVIDIA Tensor コア 5,120 10,240
通信チャネル NVLink を使用したハイブリッド キューブ メッシュ毎秒 300GB の総計速度 NVLink を使用した NVSwitch毎秒 2.4TB の総計速度

HGX-1 リファレンス アーキテクチャ

NVIDIA Tesla GPU と NVLink を搭載

NVIDIA HGX-1 は、クラウドで AI を加速するデータ センターの設計を標準化したリファレンス アーキテクチャです。8 基の Tesla SXM2 V100 ボードを基盤に、スケーラビリティに優れたハイブリッド キューブ メッシュ トポロジ、1 petaFLOP の演算処理能力、そのモジュラー式設計がハイパースケールのデータ センターでシームレスに動作し、短期間の AI 導入を可能にします。

データ センター エコシステムに力を与える

NVIDIA は、Foxconn、HPE、Huawei、Inspur、Inventec、Lenovo、Quanta、Supermicro、Wistron、Wiwynn など、世界をリードするメーカーと業務提携し、AI クラウド コンピューティングを急速に進化させています。NVIDIA は、HGX-2 GPU 基板、設計のガイドライン、GPU コンピューティング技術のアーリー アクセスをパートナー企業に提供しています。パートナー企業はそれらの技術をサーバーに取り込み、自社のデータ センター エコシステムに大規模展開できます。

データ センター エコシステムに力を与える

データ センター ニュースに登録する

高性能コンピューティング、ディープラーニング、人工知能に関する最新ニュースをお届けします。