NVIDIA Grace Hopper Superchip

大規模な AI および HPC アプリケーション向けの画期的なアクセラレーテッド CPU。

より高い性能とより高速なメモリ - 大規模な帯域幅によるコンピューティング効率の向上

NVIDIA GH200 Grace Hopper™ Superchip は、巨大規模の AI および ハイ パフォーマンス コンピューティング (HPC) アプリケーション向けにゼロから設計された画期的な高速化された CPU です。このスーパーチップは、テラバイト規模のデータを実行するアプリケーションに対して最大 10 倍高い性能を提供し、科学者や研究者が世界で最も複雑な問題に対して前例のないソリューションを実現できるようにします。

Superchip の詳細

NVIDIA Grace Hopper Superchip

NVIDIA GH200 Grace Hopper Superchip は、NVIDIA® NVLink®-C2C を使用して NVIDIA Grace™ および Hopper™ 両方のアーキテクチャを組み合わせ、 アクセラレーテッド AI およびハイ パフォーマンス コンピューティング (HPC) アプリケーション向けの CPU + GPU コヒーレント メモリ モデルを提供します。

  • 大規模な AI および HPC 向けに設計された CPU+GPU
  • 新しい 900 ギガバイト/秒 (GB/s) コヒーレント インターフェイス、PCIe Gen5 より 7 倍高速
  • HBM3 および HBM3e GPUメモリでアクセラレーテッド コンピューティングと生成 AI をスーパーチャージ
  • NVIDIA AI、HPC SDK、NVIDIA Omniverse™ など、NVIDIA のあらゆるソフトウェア スタックとプラットフォームを実行

GH200 は現在入手可能です。

NVIDIA GH200 NVL32

LLM、レコメンダー、GNN のための 1 つの巨大なスーパーチップ

NVIDIA GH200 NVL32 の CPU-GPU メモリ相互接続は驚くほど高速で、アプリケーションのメモリ可用性を高めます。この技術は、ハイパースケール データ センター向けのスケーラブルな設計の一部であり、NVIDIA ソフトウェアとライブラリの包括的なスイートによってサポートされ、数千もの GPU アプリケーションを高速化します。 GH200 NVL32 は、LLM トレーニング、レコメンダー システム、グラフ ニューラル ネットワーク (GNN) などのタスクに最適で、AI およびコンピューティング アプリケーションのパフォーマンスを大幅に向上させます。

NVIDIA GH200 NVL32

最新のデータ センター ワークロード向けの Grace Hopper リファレンス デザインをご覧ください。

HGX - AI トレーニング、推論、HPC

AI トレーニング、推論、HPC 向け

NVIDIA HGX™。

NVIDIA GH200 Superchip
NVIDIA BlueField®-3
OEM デファインドの I/O と第 4 世代 NVLink

アクセラレーテッド コンピューティングと生成 AI の時代のための次世代 GH200 Grace Hopper Superchip プラットフォームを NVIDIA が発表。