NVIDIA Grace CPU

世界最大のコンピューティングの課題を解決するために設計。

次世代データ センターのエンジン

モデルが急激に複雑化する中、AI の需要を満たすには、アクセラレーテッド コンピューティングとエネルギー効率が重要になっています。NVIDIA Grace™ CPU は、妥協のないパフォーマンスと効率性を備えた画期的な Arm® CPU です。GPU と密に結合することで、アクセラレーテッド コンピューティングを強化したり、パワフルで効率的なスタンドアロン CPU としてデプロイしたりすることができます。NVIDIA Grace CPU は次世代データ センターの基盤であり、さまざまなデータ センターのニーズに合わせて多様な構成で使用できます。

Grace ラインナップのご紹介

NVIDIA GB200 NVL72

NVIDIA GB200 Grace Blackwell Superchip は、2 基の NVIDIA Blackwell Tensor コア GPU と Grace CPU を組み合わせ、NVIDIA® NVLink® で接続された 72 基の GPU を搭載した巨大システムである GB200 NVL72 まで拡張することができ、大規模言語モデルで 30 倍高速なリアルタイム推論を実現します。

NVIDIA Grace Hopper Superchip

NVIDIA Grace Hopper™ Superchip は、NVIDIA® NVLink®-C2C を使用して Grace および Hopper 両方のアーキテクチャを組み合わせ、高速化された AI およびハイ パフォーマンス コンピューティング (HPC) アプリケーション向けの CPU + GPU コヒーレント メモリ モデルを提供します。

NVIDIA Grace CPU Superchip

NVIDIA Grace CPU Superchip は、NVLink-C2C 技術を採用し、144 個の Arm® Neoverse V2 コアと 1 テラバイト/秒 (TB/s) のメモリ帯域幅を提供します。

NVIDIA Superchip に関する最新情報

NVIDIA Grace CPU が最新の大容量メモリ スーパーコンピューターをどのように強化しているかご覧ください。

NVIDIA GB200 NVL72 で兆単位のパラメーターをリアルタイムで推論

NVIDIA GB200 NVL72 Grace Blackwell Superchip は、次世代 AI のためのアーキテクチャであり、 パラメーターが兆単位の言語モデルのリアルタイム推論を強化します。

次世代 GH200 Grace Hopper Superchip プラットフォームを NVIDIA が発表

アクセラレーテッド コンピューティングと生成 AI の時代のために、世界初の HBM3e プロセッサが画期的なメモリと帯域幅を提供します。

NVIDIA とソフトバンク、生成 AI で 5G データセンターを再発明

Arm ベースの NVIDIA Grace Hopper Superchip、BlueField-3 DPU、および Aerial SDK は、生成 AI および 5G/6G 通信のための革新的なアーキテクチャを強化します。

エネルギー効率の高いスーパーコンピューターの新潮流

NVIDIA Grace CPU を搭載した、エネルギー効率の高い最新の Arm スーパーコンピューターをご覧ください。

NVIDIA GH200 Grace Hopper Superchipが本格的に生産開始

GH200 を搭載したシステムが、生成 AI の急増する需要に応えるために世界のシステム メーカーが展開している 400 以上のシステム構成に加わります。

NVIDIA MGX で高速化されたデータ センターをより迅速に構築

QCT と Supermicro がモジュール式設計を採用し、AI、ハイパフォーマンス コンピューティング (HPC)、および 5G などの幅広い用途に対応する複数のデータ センター構成を迅速かつコスト効率よく構築している方法をご覧ください。

最新の技術革新

NVLink-C2C で CPU と GPU の接続を高速化します

AI と HPC に関する最大級の問題を解決するには、大容量メモリと高帯域幅メモリ (HBM) が必要です。第 4 世代の NVIDIA NVLink-C2C では、NVIDIA Grace CPU と NVIDIA GPU 間の双方向帯域幅が 1 秒あたり 900 ギガバイト (900GB/秒) にもおよびます。この接続により、システムと HBM GPU メモリを組み合わせて、シンプルなプログラム性を実現する、統合されたキャッシュコヒーレント メモリ アドレス空間が提供されます。CPU と GPU 間のこのコヒーレントな高帯域幅接続は、将来直面する非常に複雑な問題を解決するための鍵となります。

LPDDR5X で高帯域幅メモリを活用

NVIDIA Grace は、データ センターの要件を満たすために、エラー修正コード (ECC) などのメカニズムによってサーバー クラスの信頼性を持った LPDDR5X メモリを活用した初のサーバー CPU です。また、現行のサーバー メモリに比べて 2 倍のメモリ帯域幅と、最大 10 倍の電力効率を実現します。NVIDIA Grace LPDDR5X ソリューションは、大規模で高性能な最高レベルのキャッシュと相まって、大規模モデルに必要な帯域幅を提供すると同時に、システム電力を削減して次世代のワークロードのパフォーマンスを最大限に引き出します。

Arm Neoverse V2 コアで性能と効率性を向上

GPU の並列計算性能は進歩し続けており、CPU で実行されるシリアル タスクによってワークロードはコントロールすることができます。高速で効率的な CPU は、ワークロードを最大限に高速化するために、システム設計にとって重要な要素です。NVIDIA Grace CPU は、NVIDIA が設計した Scalable Coherency Fabric と Arm Neoverse V2 コアを統合し、電力効率に優れた設計で高い性能を引き出し、科学者や研究者のライフワークを大いに助けます。

HBM GPU メモリで生成 AI を強化

生成 AI はメモリとコンピューティング リソースを大量に消費します。NVIDIA GB200 Superchip は 380GB の HBM メモリを使用して、NVIDIA H100 Tensor コア GPU の 4.5 倍以上の GPU メモリ帯域幅を提供します。Grace Blackwell の高帯域幅メモリが NVLink-C2C 経由で CPU メモリと連携することで、およそ 860GB の高速アクセス メモリを GPU に提供し、世界で最も複雑な生成 AI とアクセラレーテッド コンピューティングのワークロードを処理するために必要なメモリ容量と帯域幅を提供します。

関連情報

Grace の注目コンテンツ

NVIDIA は、パフォーマンスチューニング ガイド、開発者ツール、ライブラリにより NVIDIA Grace のサポートを綿密に行います。