NVIDIA Grace CPU

世界最大のコンピューティングの課題を解決するために設計。

最大級の AI、HPC、クラウド、ハイパースケール ワークロードを高速化

AI モデルは、数十テラバイト規模のデータを活用したより精度の高いレコメンダー システム、数千億のパラメーターを持つ対話型 AI 、科学的なさらなる発見などによって、複雑さとサイズが爆発的に増加増大しています。これらの巨大モデルをスケーリングするには、大量のメモリ プールに高速アクセスし、CPU と GPU が密結合した新しいアーキテクチャが必要です。NVIDIA Grace™ CPU は、高性能、優れた電力効率性、高帯域幅の接続性を実現し、データ センターのさまざまなニーズに合わせて多様な構成で使用することができます。

NVIDIA Grace Hopper スーパーチップ によるレコメンダー システムの精度の向上。

NVIDIA Superchip に関する最新情報

NVIDIA Grace CPU が最新の大容量メモリ スーパーコンピューターをどのように強化しているかご覧ください。

GH200 Grace Hopper Superchip

次世代 GH200 Grace Hopper Superchip プラットフォームを NVIDIA が発表

アクセラレーテッド コンピューティングと生成 AI の時代のために、世界初の HBM3e プロセッサが画期的なメモリと帯域幅を提供します。

NVIDIA and Softbank

NVIDIA とソフトバンク、生成 AI で 5G データセンターを再発明

Arm ベースの NVIDIA Grace Hopper Superchip、BlueField-3 DPU、および Aerial SDK は、生成 AI および 5G/6G 通信のための革新的なアーキテクチャを強化します。

 UK Research Alliance, GW4, Arm, HPE

エネルギー効率の高いスーパーコンピューターの新潮流

NVIDIA Grace CPU を搭載した、エネルギー効率の高い最新の Arm スーパーコンピューターをご覧ください。

NVIDIA GH200 Grace Hopper Superchips Are in Full Production

NVIDIA GH200 Grace Hopper Superchipが本格的に生産開始

GH200 を搭載したシステムが、生成 AI の急増する需要に応えるために世界のシステム メーカーが展開している 400 以上のシステム構成に加わります。

Creating Accelerated Data Centers Faster With NVIDIA MGX

NVIDIA MGX で高速化されたデータ センターをより迅速に構築

QCT と Supermicro がモジュール式設計を採用し、AI、ハイパフォーマンス コンピューティング (HPC)、および 5G などの幅広い用途に対応する複数のデータ センター構成を迅速かつコスト効率よく構築している方法をご覧ください。

Massive Shared GPU Memory for Giant AI Models

巨大 AI モデルのための大規模な共有 GPU メモリ

NVIDIA Grace Hopper Superchip が最新の大容量メモリ スーパーコンピューターをどのように強化しているかをご覧ください。

The Developer Conference for the Era of AI and the Metaverse

Conference & Training September 19 - 22 | Keynote September 20

Join us this September for a GTC that will inspire your next big idea. This is a don’t-miss opportunity to learn from experts and leaders in their fields on how AI is transforming industries and profoundly impacting the world. It all happens online September 19–22.

  • Inside Grace

    • Jonathon Evans, NVIDIA

    This talk will give an overview of the NVIDIA Grace™ server system on chip (SOC).

  • Pushing the Frontier of AI Performance and Efficiency with Modern Infrastructure

    • Bhumik Patel, Arm
    • David Lecomber, Arm

    As the adoption of Arm® Neoverse-based computing solutions grows across cloud, 5G, HPC, and edge markets, so does the availability of software enabled and optimized for the Arm ecosystem. We'll review the current state of Arm libraries and developer tools available for optimizing HPC, AI, and other infrastructure codes to run on Arm.

  • A Deep Dive into the Latest HPC Software

    • Timothy Costa, NVIDIA

    Take a deep dive into the latest developments in NVIDIA software for HPC applications, including a comprehensive look at what’s new in programming models, compilers, libraries, and tools. We'll cover topics of interest to HPC developers, targeting traditional HPC modeling and simulation, HPC+AI, scientific visualization, and quantum computing.

Speakers at GTC22

Superchip の Grace ラインナップのご紹介

NVIDIA Grace Hopper Superchip

NVIDIA Grace Hopper™ Superchip は、NVIDIA® NVLink®-C2C を使用して Grace および Hopper 両方のアーキテクチャを組み合わせ、高速化された AI およびハイ パフォーマンス コンピューティング (HPC) アプリケーション向けの CPU + GPU コヒーレント メモリ モデルを提供します。

NVIDIA Grace Hopper Superchip
NVIDIA Grace CPU Superchip

NVIDIA Grace CPU Superchip

NVIDIA Grace CPU Superchip は、NVLink-C2C 技術を採用し、144 個の Arm® Neoverse V2 コアと 1 テラバイト/秒 (TB/s) のメモリ帯域幅を提供します。

最新のデータ センター ワークロードのための Grace リファレンス デザインの詳細をご覧ください

デジタル ツイン、AI、ハイ パフォーマンス コンピューティングのためのシステム設計。

OVX-Digital Twins & Omniverse

NVIDIA OVX™

デジタル ツインと NVIDIA Omniverse™ のための.

NVIDIA Grace CPU スーパーチップ
NVIDIA GPUs
NVIDIA BlueField®-3

HGX-HPC

NVIDIA HGX™

HPC のための

NVIDIA Grace CPU スーパーチップ
NVIDIA BlueField-3
OEM 定義の I/O

HGX-AI Training, Inference & HPC

NVIDIA HGX

for AI training, inference, and HPC.

NVIDIA Grace Hopper スーパーチップ
NVIDIA BlueField-3
OEM 定義の I/O / 第 4 世代 NVLink

複雑な問題を解決できる設計

NVIDIA Grace CPU は、Arm® アーキテクチャの柔軟性を活用し、アクセラレーテッド コンピューティング用にゼロから設計された CPU およびサーバー アーキテクチャを構築します。この革新的な設計により、現在最速のサーバーに比べて最大 30 倍の総帯域幅と、テラバイト単位のデータを実行するアプリケーションと比べて最大 10 倍のパフォーマンスを実現します。NVIDIA Grace は、科学者や研究者が世界最大のモデルをトレーニングし、最も複雑な問題を解決できるように設計されています。

最新の技術革新をご覧ください

NVLink-C2C で CPU と GPU の接続を高速化します

AI と HPC に関する最大級の問題を解決するには、大容量メモリと高帯域幅メモリ (HBM) が必要です。第 4 世代の NVIDIA NVLink-C2C では、NVIDIA Grace CPU と NVIDIA GPU 間の双方向帯域幅が 1 秒あたり 900 ギガバイト (900GB/秒) にもおよびます。この接続により、システムと HBM GPU メモリを組み合わせて、シンプルなプログラム性を実現する、統合されたキャッシュコヒーレント メモリ アドレス空間が提供されます。CPU と GPU 間のこのコヒーレントな高帯域幅接続は、将来直面する非常に複雑な問題を解決するための鍵となります。

LPDDR5X で高帯域幅メモリを活用

NVIDIA Grace は、データ センターの要件を満たすために、エラー修正コード (ECC) などのメカニズムによってサーバー クラスの信頼性を持った LPDDR5X メモリを活用した初のサーバー CPU です。また、現行のサーバー メモリに比べて 2 倍のメモリ帯域幅と、最大 10 倍の電力効率を実現します。NVIDIA Grace LPDDR5X ソリューションは、大規模で高性能な最高レベルのキャッシュと相まって、大規模モデルに必要な帯域幅を提供すると同時に、システム電力を削減して次世代のワークロードのパフォーマンスを最大限に引き出します。

Arm Neoverse V2 コアで性能と効率性を向上

GPU の並列計算性能は進歩し続けており、CPU で実行されるシリアル タスクによってワークロードはコントロールすることができます。高速で効率的な CPU は、ワークロードを最大限に高速化するために、システム設計にとって重要な要素です。NVIDIA Grace CPU は、NVIDIA が設計した Scalable Coherency Fabric と Arm Neoverse V2 コアを統合し、電力効率に優れた設計で高い性能を引き出し、科学者や研究者のライフワークを大いに助けます。

HBM3 および HBM3e GPUメモリで生成 AI をスーパーチャージ

生成 AI はメモリと計算リソースを大量に使います。NVIDIA GH200 Grace Hopper Superchip は、96GB の HBM3 メモリを使用し、オリジナルの A100 の 2.5 倍以上の GPU メモリ帯域幅を提供します。次世代の GH200 は 141GB の HBM3e メモリ テクノロジを活用する世界初のプロセッサであり、オリジナルの A100 の 3 倍以上の帯域幅を提供します。NVIDIA Grace Hopper の HBM が NVLink-C2C 経由で CPU メモリと連携することで、600 GB を超える高速アクセス メモリを GPU に提供し、アクセラレーテッド コンピューティングや生成 AI の非常に複雑なワークロードを処理するために必要なメモリ容量と帯域幅を提供します。

NVIDIA のパートナーを紹介します

Asus
Atos logo
DELL logo
Fii logo
Gigabyte logo
H3c logo
Hewlett Packard Enterprise Logo
Inspur logo
Lenovo logo
Nettrix logo
Quanta-cloud
Supermicro
Wiwynn-logo
xfusion-logo

さらにリソースを探す

Grace の注目コンテンツ

NVIDIA Grace Hopper Superchip が 最も困難なAIの課題解決に向けてどのように利用されているかをご覧ください。