NVIDIA Grace CPU

世界最大のモデルをトレーニングするために特化

大規模な AI や HPC のワークロードに対応する画期的 CPU

AI モデルは複雑性と規模を爆発的に増しながら、大量のパラメーターで対話型 AI を改善し、数十テラバイト単位のデータが入力される組み込みテーブルでディープ レコメンダー システムを強化し、新しい科学的発見を可能にしています。こうした大規模モデルが、現在のシステムの限界を押し上げています。精度と汎用性のために継続的に拡張するには、大量のメモリに高速アクセスできて、CPU と GPU を緊密に結合する必要があります。

NVIDIA 創業者/CEO、Jensen Huang が NVIDIA Grace CPU を発表した GTC 基調講演を是非ご覧ください。
(※日本語字幕がご利用いただけます。)

 

複雑な問題を解決する設計

NVIDIA Grace CPU は、Arm® アーキテクチャの柔軟性を活用し、アクセラレーテッド コンピューティングのためにゼロから設計された CPU/サーバー アーキテクチャを構築します。この革新的な設計は、現在最速のサーバーと比較して 30 倍の総帯域幅を実現します。テラバイト単位のデータを処理するアプリケーションのパフォーマンスは最大 10 倍になります。NVIDIA Grace は、科学者や研究者が最も複雑な問題を解決する目的で世界最大級のモデルをトレーニングできるように設計されています。

最新のイノベーション

第 4 世代 NVIDIA NVLink

AI と HPC における大きな問題を解決するには、大容量の広帯域幅メモリ (HBM) が必要です。第 4 世代の NVIDIA® NVLink® は、NVIDIA Grace CPU と NVIDIA GPU の間で毎秒 900 ギガバイト (GB/s) の双方向帯域幅を実現します。この接続により、統合されたキャッシュコヒーレント メモリ アドレス空間でシステムと HBM GPU メモリが組み合わされ、プログラミングがシンプルになります。CPU と GPU の間のコヒーレントな広帯域幅接続は、AI と HPC 関連で今後非常に複雑になる課題の解決を加速するための鍵となります。

LPDDR5x と ECC を使用する新しい広帯域幅メモリ サブシステム

メモリ帯域幅はサーバーのパフォーマンスを左右する重要な要素です。標準のダブル データ レート (DDR) メモリはソケット全体の電力のかなりの部分を消費します。NVIDIA Grace CPU は LPDDR5x メモリを活用した、初のサーバー CPU で、エラー修正コード (ECC) のような仕組みによってサーバー並みの信頼性を提供します。現在のサーバー メモリと比較して 2 倍のメモリ帯域幅と最大 10 倍のエネルギー効率を実現しながら、データ センターの要求を満たします。NVIDIA Grace LPDDR5x ソリューションと、大規模で高性能なラストレベル キャッシュを組み合わせることで、大規模モデルに必要な帯域幅を提供します。それと同時に、システムの電力を低減し、次世代のワークロードのパフォーマンスを最大化することができます。

次世代の Arm Neoverse コア

GPU の並列計算機能が進歩し続けても、CPU で実行されるシリアル タスクによってワークロードは今も調整されることがあります。高速かつ効率性に優れた CPU は、システム設計上、ワークロードを最大限に加速させるための重要な構成要素です。次世代 Arm Neoverse™ コアを採用した NVIDIA Grace CPU は、電力効率に優れた設計で高性能を実現し、科学者や研究者がライフ ワークとしている作業を簡単に行えるようにします。

NVIDIA 創業者/CEO、Jensen Huang が NVIDIA Grace CPU を披露する GTC 基調講演をお見逃しなく。詳細については、プレス リリースをお読みください。