世界初の AI スーパーコンピューティング データ センター GPU
現代のデータ センターは汎用の計算ノードを何台も相互接続して運用しており、HPC (ハイ パフォーマンス コンピューティング) やハイパースケール ワークロードに対する性能が十分とは言えません。NVIDIA® Tesla® P100 は NVIDIA Pascal™ GPU アーキテクチャにより HPC および AI を加速する統合プラットフォームを提供することで、コストを削減しつつスループットを劇的に向上させます。
上位 15 個を含む 700 を超える HPC アプリケーションと、すべてのディープラーニング フレームワークを高速化することで、NVIDIA NVLink を搭載した Tesla P100 は、最大 50 倍のパフォーマンス向上を実現します。
Tesla P100 は半導体からソフトウェアにいたるまで刷新され、随所に革新的な技術を使用しています。それぞれの画期的なテクノロジにより、パフォーマンスが飛躍的に向上し、世界最速の計算ノードをを生み出すきっかけとなりました。
Tesla P100 は、NVIDIA Pascal アーキテクチャにより、HPC やハイパースケールのワークロードに優れたパフォーマンスを発揮します。16 ビットの浮動小数点数 (FP16) 性能が 21 テラフロップス を超える Pascal は、ディープラーニング アプリケーションの新たな可能性を引き出せるように最適化されています。また、Pascal は HPC ワークロードにおいて、倍精度で 5 teraFLOPS 以上、単精度で 10 teraFLOPS 以上のパフォーマンスを提供します。
Tesla P100 では、HBM2 テクノロジで Chip-on-Wafer-on-Substrate (CoWoS) を追加することで、コンピューティングとデータを同一パッケージに緊密に統合し、 NVIDIA Maxwell™ アーキテクチャと比較して 3 倍のメモリ性能を実現しています。データを大量に扱うアプリケーションの問題解決に要する時間が、旧世代とは格段に異なります。
相互接続は大抵パフォーマンスを低下させます。革命的な NVIDIA NVLink の高速相互接続 は、今日の最高クラスのテクノロジと比較して 5 倍のパフォーマンスを提供することで、複数の GPU にまたがるアプリケーションを拡張するよう設計されています。
注意: このテクノロジは、PCIe 向けの Tesla P100 では利用できません。
ページ マイグレーション エンジンにより、開発者はデータの移動を管理することから解放され、コンピューティング性能のチューニングに集中できます。GPU の物理メモリ サイズを超えて、実質的に無限大のメモリにアプリケーションを拡張することができます。
Tesla P100 と NVIDIA NVLink のテクノロジにより、きわめて高速なノードが実現し、ストロングスケール アプリケーションの問題解決に要する時間が、大幅に短縮されます。NVLink により、1 台のサーバ ノードにつき最大 8 基の Tesla P100 を相互接続でき、帯域幅は PCIe の 5 倍になります。HPC やディープラーニングにおける膨大な計算を必要とする世界で最も重要な課題の解決を支援するために設計されています。
PCIe 用 Tesla P100 は、混合ワークロード HPC データ センターを、コストを削減しながらスループットを大幅に向上させます。たとえば、PCIe で相互接続した 4 基の Tesla P100 が駆動する 1 台の GPU アクセラレーション ノードで、さまざまなアプリケーションに利用できる最大 32 台の汎用 CPU ノードを置き換えることができます。はるかに少ない台数のパワフルなノードですべてのジョブを完了できるため、お客様はデータ センター全体のコストを最大 70 パーセント削減できます。
HPC とディープラーニング向け世界最速の GPU アクセラレータ。
NVIDIA アクセラレーテッド コンピューティング パートナーは NVIDIA パートナー ネットワーク (NPN) でお探しください。