NVIDIA H200 Tensor コア GPU

AI と HPC のワークロードを強化する世界で最もパワフルな GPU。

この製品が発売開始になりましたらお知らせいたします。

世界で最もパワフルな GPU

NVIDIA H200 Tensor コア GPU は、市場を一変させるパフォーマンスとメモリ機能で生成 AI と HPC ワークロードを強化します。HBM3e を搭載した初の GPU である H200 の大容量かつ高速のメモリは、HPC ワークロードのための科学コンピューティングを推進しながら、生成 AI と大規模言語モデル (LLM) の高速化を促進します。

世界をリードする AI コンピューティング プラットフォームである Hopper を NVIDIA がスーパーチャージ

NVIDIA Hopper™ アーキテクチャをベースとする NVIDIA HGX H200 は、NVIDIA H200 Tensor コア GPU と高度なメモリを備え、生成 AI やハイパフォーマンス コンピューティング ワークロードのために大量のデータを処理します。

ハイライト

新たなレベルのパフォーマンスを体験

LLama2 70B 推論

1.9倍 の高速化

GPT3-175B 推論

1.6倍 の高速化

高性能コンピューティング

110倍 の高速化

利点

高性能、最高の効率

NVIDIA Hopper アーキテクチャをベースとする NVIDIA H200 は、毎秒 4.8 テラバイト (TB/s) で 141 ギガバイト (GB) の HBM3e メモリを提供する初の GPU です。これは、NVIDIA H100 Tensor コア GPU の約 2 倍の容量で、メモリ帯域幅は 1.4 倍です。H200 の大容量かつ高速なメモリは、生成 AI と LLM を加速し、エネルギー効率を向上させ、総所有コストを低減し、HPC ワークロードのための科学コンピューティングを前進させます。

準備段階で測定されたパフォーマンスです。変更される可能性があります
Llama2 13B: ISL 128, OSL 2K | Throughput | H100 1x GPU BS 64 | H200 1x GPU BS 128
GPT-3 175B: ISL 80, OSL 200 | x8 H100 GPUs BS 64 | x8 H200 GPUs BS 128
Llama2 70B: ISL 2K, OSL 128 | Throughput | H100 1x GPU BS 8 | H200 1x GPU BS 32.

高性能な LLM 推論でインサイトを引き出す

進化し続ける AI の世界では、企業はさまざまな推論のニーズに対応するために LLM を利用しています。AI 推論アクセラレータは、大規模なユーザー ベース向けにデプロイする場合、最小の TCO で最高のスループットを実現する必要があります。

H200 は、Llama2 のような LLM を扱う場合、H100 GPU と比較して推論速度を最大 2 倍向上します。

ハイパフォーマンス コンピューティングをスーパーチャージ

メモリ帯域幅は、より高速なデータ転送を実現することで、ボトルネックとなる複雑な処理を削減するため、ハイパフォーマンス コンピューティング アプリケーションにとって極めて重要です。シミュレーション、科学研究、人工知能のようなメモリを大量に使用する HPC アプリケーションでは、 H200 の高いメモリ帯域幅が、データへのアクセスと操作を効率化し、CPU と比較して 110 倍の早さで結果を得ることができます。

準備段階で測定されたパフォーマンスです。変更される可能性があります
HPC MILC- dataset NERSC Apex Medium | HGX H200 4-GPU | dual Sapphire Rapids 8480
HPC Apps- CP2K: dataset H2O-32-RI-dRPA-96points | GROMACS: dataset STMV | ICON: dataset r2b5 | MILC: dataset NERSC Apex Medium | Chroma: dataset HMC Medium | Quantum Espresso: dataset AUSURF112 | 1x H100 | 1x H200.

準備段階で測定されたパフォーマンスです。変更される可能性があります
Llama2 70B: ISL 2K, OSL 128 | Throughput | H100 1x GPU BS 8 | H200 1x GPU BS 32

エネルギーと TCO の削減

H200 の導入により、エネルギー効率と TCO が新たなレベルに到達します。この最先端のテクノロジは、すべて H100 Tensor コア GPU と同じ電力プロファイル内で、かつてないパフォーマンスを提供します。AI ファクトリーとスーパーコンピューティング システムは、高速なだけでなく、環境にも優しく、AI と科学のコミュニティを推進する経済的優位性を提供します。

パフォーマンス

永続的なイノベーションが永続的なパフォーマンス向上をもたらす

Single-node HGX measured performance | A100 April 2021 | H100 TensorRT-LLM Oct 2023 | H200 TensorRT-LLM Oct 2023

NVIDIA Hopper アーキテクチャは、前世代から大きく進歩し、これまでにないパフォーマンスを提供しています。また、NVIDIA TensorRT-LLM™ のような強力なオープンソース ライブラリの最新リリースを含む H100 によるソフトウェアの強化により、その水準を高め続けています。

H200 の登場により、パフォーマンスはさらに向上し続けます。これに投資することで、現在も、そして将来も、サポートされるソフトウェアの継続的な改善により、パフォーマンス面で優位に立つことができます。

エンタープライズ対応: AI ソフトウェアが開発とデプロイを合理化

NVIDIA AI Enterprise と NVIDIA H200 の組み合わせにより、AI 対応プラットフォームの構築が簡素化され、本番環境に対応する生成 AI、コンピューター ビジョン、スピーチ AI などの AI 開発およびデプロイが加速します。また、企業レベルのセキュリティ、管理性、安定性、サポートを提供し、実用的なインサイトをより迅速に収集し、目に見えるビジネス価値を早期に実現します。

仕様

NVIDIA H200 Tensor コア GPU

フォーム ファクター H200 SXM¹
FP64 34 TFLOPS
FP64 Tensor コア 67 TFLOPS
FP32 67 TFLOPS
TF32 Tensor コア 989 TFLOPS²
BFLOAT16 Tensor コア 1,979 TFLOPS²
FP16 Tensor コア 1,979 TFLOPS²
FP8 Tensor コア 3,958 TFLOPS²
INT8 Tensor コア 3,958 TFLOPS²
GPU メモリ 141GB
GPU メモリ帯域幅 4.8TB/秒
デコーダー 7 NVDEC
7 JPEG
最大熱設計電力 (TDP) 最大 700W(構成可能)
マルチインスタンス GPU 各 16.5GB で最大 7 個の MIG
フォーム ファクター SXM
相互接続 NVLink: 900GB/秒
PCIe Gen5: 128GB/秒
サーバー オプション GPU を 4 基または 8 基搭載の NVIDIA HGX H100 Partner および NVIDIA-Certified Systems™
NVIDIA AI Enterprise アドオン

始める

この製品が発売開始になりましたらお知らせいたします。

NVIDIA H200 Tensor コア GPU 仕様概要