NVIDIA Grace CPU

世界最大のコンピューティング問題を解決するための設計。

最大級の AI、HPC、クラウド、ハイパースケール ワークロードの高速化

AI モデルの複雑さと規模は爆発的に拡大しており、数千億のパラメーターを持つ対話型 AI を改善し、数十テラバイトのデータを包含するディープ レコメンダー システムを強化し、新しい科学的発見を実現しています。このような大規模なモデルは、現代のシステムの限界を押し上げています。精度と有用性のために拡張を続けには、大きなメモリ プールへの高速アクセスと CPU と GPU 間の緊密な結合が必要です。

世界トップのシステム メーカーが NVIDIA Grace と Grace Hopper の採用を加速

製品

NVIDIA Grace Hopper スーパーチップ

NVIDIA Grace Hopper スーパーチップ は、NVIDIA® NVLink-C2C を使用して Grace アーキテクチャと Hopper アーキテクチャを組み合わせ、アクセラレーテッド AI および HPC (ハイ パフォーマンス コンピューティング) アプリケーション向けの CPU+GPU コヒーレント メモリ モデルを提供します。

  • 大規模な AI と HPC 用に設計された CPU+GPU
  • 新しい 900 GB/秒コヒーレント インターフェイスは、PCIe Gen 5 と比較して 7 倍高速
  • DGX A100 と比較して GPU への集約システム メモリ帯域幅が 30 倍高域
  • NVIDIA HPC、NVIDIA AI、NVIDIA Omniverse を含む、あらゆる NVIDIA ソフトウェア スタックとプラットフォームを実行

 

NVIDIA Grace Hopper Superchip
NVIDIA Grace CPU スーパーチップ

NVIDIA Grace CPU スーパーチップ

NVIDIA Grace CPU スーパーチップ CPU は、NVLink-C2C テクノロジを用いて 144 個の Arm® v9 コアと 1 TB/秒のメモリ帯域幅を提供します。

  • HPC とクラウド コンピューティングのための高性能 CPU
  • 最大 144 個の Arm v9 CPU コアを搭載したスーパーチップ設計
  • ECC メモリを搭載した世界初の LPDDR5x、合計帯域幅 1TB/秒
  • SPECrate®2017_int_base で 740 超 (推定)
  • 900 GB/秒コヒーレント インターフェイスは、PCIe Gen 5 と比較して 7 倍高速
  • DIMM ベースのソリューションの 2 倍のパッケージング密度
  • 現在の主要 CPU のワットあたりの 2 倍の性能
  • NVIDIA HPC、NVIDIA AI、NVIDIA Omniverse を含む、あらゆる NVIDIA ソフトウェア スタックとプラットフォームを実行

最新のデータ センター ワークロードのための NVIDIA Grace リファレンス デザイン

デジタル ツイン、クラウド グラフィックス & ゲーミング、AI、ハイ パフォーマンス コンピューティングのシステム設計を発表。

CGX-Cloud Graphics & Gaming

CGX

クラウド グラフィックス & ゲーミング

Grace CPU Superchip
A16
BlueField-3

OVX-Digital Twins & Omniverse

OVX

デジタル ツイン & Omniverse

Grace CPU Superchip
NVIDIA GPUs
BlueField-3

HGX-HPC

HGX

HPC

Grace CPU Superchip
BlueField-3
OEM 定義の IO

HGX-AI Training, Inference & HPC

HGX

AI トレーニング、推論 & HPC

Grace Hopper Superchip
BlueField-3
OEM 定義の IO / 第 4 世代 NVLink

複雑な問題を解決できる設計

NVIDIA Grace CPU は、Arm® アーキテクチャの柔軟性を活用し、アクセラレーテッド コンピューティング用にゼロから設計された CPU およびサーバー アーキテクチャを構築します。この革新的な設計により、現在最速のサーバーに比べて最大 30 倍の総帯域幅と、テラバイト単位のデータを実行するアプリケーションと比べて最大 10 倍のパフォーマンスを実現します。NVIDIA Grace は、科学者や研究者が世界最大のモデルをトレーニングし、最も複雑な問題を解決できるように設計されています。

最新の技術革新

第 4 世代 NVIDIA NVLink-C2C

AI と HPC に関する最大級の問題を解決するには、大容量メモリと高帯域幅メモリ (HBM) の両方が必要です。第 4 世代の NVIDIA NVLink-C2C では、NVIDIA Grace CPU と NVIDIA GPU 間の双方向帯域幅が 1 秒あたり 900 ギガバイト (900GB/秒) にもおよびます。この接続により、システムと HBM GPU メモリを組み合わせて、シンプルなプログラム性を実現する、統合されたキャッシュコヒーレント メモリ アドレス空間が提供されます。CPU と GPU 間のこのコヒーレントな高帯域幅接続は、AI と HPC に関して将来直面する非常に複雑な問題を解決するための鍵となります。

ECC 付きの LPDDR5x を使用する、新しい高帯域幅メモリ サブシステム

メモリ帯域幅はサーバーのパフォーマンスにとって重要な要素であり、標準の DDR (Double Data Rate) メモリはソケット電力全体の大部分を消費します。NVIDIA Grace CPU は、データ センターの要件を満たすために、エラー修正コード (ECC) などのメカニズムによってサーバー クラスの信頼性を持った LPDDR5x メモリを活用した初のサーバー CPU です。また、現行のサーバー メモリに比べて 2 倍のメモリ帯域幅と、最大 10 倍のエネルギー効率を実現します。NVIDIA Grace LPDDR5x ソリューションは、大規模で高性能な最高レベルのキャッシュと相まって、大規模モデルに必要な帯域幅を提供すると同時に、システム電力を削減して次世代のワークロードのパフォーマンスを最大化します。

次世代の Arm v9 コア

GPU の並列計算機能は進歩し続けており、CPU で実行されるシリアル タスクによってワークロードを調整できます。高速で効率的な CPU は、ワークロードを最大限に高速化するために、システム設計にとって重要な要素です。NVIDIA Grace CPU は、次世代の Arm v9 コアを統合し、電力効率に優れた設計で高性能を実現し、科学者や研究者は自分たちの仕事をより簡単に行うことができます。

パートナー

Asus
Atos logo
DELL logo
Fii logo
Gigabyte logo
H3c logo
Hewlett Packard Enterprise Logo
Inspur logo
Lenovo logo
Nettrix logo
Quanta-cloud
Supermicro
Wiwynn-logo
xfusion-logo

世界トップのシステム メーカーが NVIDIA Grace と Grace Hopper の採用を加速