Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
世界最大のコンピューティングの課題を解決するために設計。
モデルが急激に複雑化する中、AI の需要を満たすには、アクセラレーテッド コンピューティングとエネルギー効率が重要になっています。NVIDIA Grace™ CPU は、妥協のないパフォーマンスと効率性を備えた画期的な Arm® CPU です。GPU と密に結合することで、アクセラレーテッド コンピューティングを強化したり、パワフルで効率的なスタンドアロン CPU としてデプロイしたりすることができます。NVIDIA Grace CPU は次世代データ センターの基盤であり、さまざまなデータ センターのニーズに合わせて多様な構成で使用できます。
NVIDIA GB200 Grace Blackwell Superchip は、2 基の NVIDIA Blackwell Tensor コア GPU と Grace CPU を組み合わせ、NVIDIA® NVLink® で接続された 72 基の GPU を搭載した巨大システムである GB200 NVL72 まで拡張することができ、大規模言語モデルで 30 倍高速なリアルタイム推論を実現します。
NVIDIA Grace Hopper™ Superchip は、NVIDIA® NVLink®-C2C を使用して Grace および Hopper 両方のアーキテクチャを組み合わせ、高速化された AI およびハイ パフォーマンス コンピューティング (HPC) アプリケーション向けの CPU + GPU コヒーレント メモリ モデルを提供します。
NVIDIA Grace CPU Superchip は、NVLink-C2C 技術を採用し、144 個の Arm® Neoverse V2 コアと 1 テラバイト/秒 (TB/s) のメモリ帯域幅を提供します。
NVIDIA Grace CPU が最新の大容量メモリ スーパーコンピューターをどのように強化しているかご覧ください。
NVIDIA GB200 NVL72 Grace Blackwell Superchip は、次世代 AI のためのアーキテクチャであり、 パラメーターが兆単位の言語モデルのリアルタイム推論を強化します。
アクセラレーテッド コンピューティングと生成 AI の時代のために、世界初の HBM3e プロセッサが画期的なメモリと帯域幅を提供します。
Arm ベースの NVIDIA Grace Hopper Superchip、BlueField-3 DPU、および Aerial SDK は、生成 AI および 5G/6G 通信のための革新的なアーキテクチャを強化します。
NVIDIA Grace CPU を搭載した、エネルギー効率の高い最新の Arm スーパーコンピューターをご覧ください。
GH200 を搭載したシステムが、生成 AI の急増する需要に応えるために世界のシステム メーカーが展開している 400 以上のシステム構成に加わります。
QCT と Supermicro がモジュール式設計を採用し、AI、ハイパフォーマンス コンピューティング (HPC)、および 5G などの幅広い用途に対応する複数のデータ センター構成を迅速かつコスト効率よく構築している方法をご覧ください。
AI と HPC に関する最大級の問題を解決するには、大容量メモリと高帯域幅メモリ (HBM) が必要です。第 4 世代の NVIDIA NVLink-C2C では、NVIDIA Grace CPU と NVIDIA GPU 間の双方向帯域幅が 1 秒あたり 900 ギガバイト (900GB/秒) にもおよびます。この接続により、システムと HBM GPU メモリを組み合わせて、シンプルなプログラム性を実現する、統合されたキャッシュコヒーレント メモリ アドレス空間が提供されます。CPU と GPU 間のこのコヒーレントな高帯域幅接続は、将来直面する非常に複雑な問題を解決するための鍵となります。
NVIDIA Grace は、データ センターの要件を満たすために、エラー修正コード (ECC) などのメカニズムによってサーバー クラスの信頼性を持った LPDDR5X メモリを活用した初のサーバー CPU です。また、現行のサーバー メモリに比べて 2 倍のメモリ帯域幅と、最大 10 倍の電力効率を実現します。NVIDIA Grace LPDDR5X ソリューションは、大規模で高性能な最高レベルのキャッシュと相まって、大規模モデルに必要な帯域幅を提供すると同時に、システム電力を削減して次世代のワークロードのパフォーマンスを最大限に引き出します。
GPU の並列計算性能は進歩し続けており、CPU で実行されるシリアル タスクによってワークロードはコントロールすることができます。高速で効率的な CPU は、ワークロードを最大限に高速化するために、システム設計にとって重要な要素です。NVIDIA Grace CPU は、NVIDIA が設計した Scalable Coherency Fabric と Arm Neoverse V2 コアを統合し、電力効率に優れた設計で高い性能を引き出し、科学者や研究者のライフワークを大いに助けます。
生成 AI はメモリとコンピューティング リソースを大量に消費します。NVIDIA GB200 Superchip は 380GB の HBM メモリを使用して、NVIDIA H100 Tensor コア GPU の 4.5 倍以上の GPU メモリ帯域幅を提供します。Grace Blackwell の高帯域幅メモリが NVLink-C2C 経由で CPU メモリと連携することで、およそ 860GB の高速アクセス メモリを GPU に提供し、世界で最も複雑な生成 AI とアクセラレーテッド コンピューティングのワークロードを処理するために必要なメモリ容量と帯域幅を提供します。
NVIDIA は、パフォーマンスチューニング ガイド、開発者ツール、ライブラリにより NVIDIA Grace のサポートを綿密に行います。