NVIDIA GH200 Grace Hopper Superchip

大規模 AI および HPC アプリケーションのための画期的な設計

より優れた処理能力と高速メモリ。広い帯域幅で計算効率を向上。

NVIDIA GH200 Grace Hopper™ Superchip は、大規模 AIhigh-performance computing (ハイパフォーマンス コンピューティング) アプリケーションのためにゼロから設計された画期的なプロセッサです。このスーパーチップは、テラバイト級のデータを処理するアプリケーションに対して最大 10 倍のパフォーマンスを発揮し、科学者や研究者は、世界で最も複雑な問題に対してこれまで見いだせなかった解決策を導き出せるようになります。

Superchip の詳細

NVIDIA GH200 Grace Hopper Superchip

NVIDIA GH200 Grace Hopper Superchip は、NVIDIA® NVLink®-C2C を使用して NVIDIA Grace™ および Hopper™ アーキテクチャを組み合わせ、AI および HPC アプリケーションを加速する CPU+GPU コヒーレント メモリ モデルを提供します。900 ギガバイト/秒 (GB/s) のコヒーレント インターフェイスを備えたこのスーパーチップは、PCIe Gen5 よりも 7 倍高速です。また、HBM3 および HBM3e GPU メモリにより、アクセラレーテッド コンピューティングと生成 AI をさらに強化します。GH200 は、NVIDIA AI Enterprise、HPC SDK、Omniverse™ を含む、すべての NVIDIA ソフトウェア スタックおよびプラットフォームを実行します。

デュアル構成の GH200 Grace Hopper Superchip は、2 基の GH200 Superchip を NVLink 経由で完全接続し、H100 と比較して最大 3.5 倍の GPU メモリ容量と 3 倍の帯域幅を単一サーバーに提供します。

GH200 は現在入手可能です。

NVIDIA GH200 NVL2

NVIDIA GH200 NVL2 は 2 つの GH200 Superchip を NVLink で完全に接続し、最大 288GB の高帯域幅メモリ、10 テラバイト/秒 (TB/s) のメモリ帯域幅、1.2 TB の高速メモリを提供します。現在販売中の GH200 NVL2 は、NVIDIA H100 Tensor コア GPU と比較して、最大 3.5 倍の GPU メモリ容量と 3 倍の帯域幅を単一のサーバーで提供し、コンピューティングとメモリを大量に消費するワークロードに対応します。

LaunchPad ラボで GH200 の詳細を見る

Grace Hopper でコンピューティングと AI を加速する

こちらのデモでは、NVIDIA GH200 Grace Hopper Superchip と NVIDIA のソフトウェア スタックのシームレスな統合を体験することができます。また、インタラクティブ デモ、実際のアプリケーション、大規模言語モデル (LLM) などの導入事例も紹介しています。

最新のデータ センター ワークロード向けの Grace Hopper リファレンス デザインをご覧ください。

GH200 搭載の NVIDIA MGX

AI トレーニング、推論、5G、HPC 向け。

NVIDIA GH200 Grace Hopper Superchip
NVIDIA BlueField®-3
OEM 定義の I/O (入出力) と第 4 世代 NVLink

NVIDIA は、パフォーマンスチューニング ガイド、開発者ツール、ライブラリにより NVIDIA Grace のサポートを綿密に行います。