シングル ラック NVIDIA Vera Rubin NVL72

NVIDIA Vera Rubin NVL72

次世代向けに構築された AI スーパーコンピューター

概要

6 つの新しいチップ、1 つの AI スーパーコンピューター

NVIDIA Vera Rubin NVL72 は、72 基の Rubin GPU、36 基の Vera CPU、ConnectX®-9 SuperNIC、BlueField®-4 DPU など、NVIDIA の最先端テクノロジを統合しています。 これは、NVIDIA NVLink™ 6 スイッチを搭載した一貫性のあるラックスケール プラットフォームでインテリジェンスを拡張し、NVIDIA Quantum-X800 InfiniBand と Spectrum-X™ イーサネットによるスケールアウトを実現することで、大規模な AI 産業革命を推進します。

第 3 世代 NVIDIA MGX™ NVL72 ラック設計を基盤とする Vera Rubin NVL72 は、従来世代からのスムーズな移行を実現し、Blackwell との比較で AI トレーニングを最大 1/4 の GPU で、AI 推論を 1/10 のトークンあたりコストで提供します。このラックスケール AI スーパーコンピューターは、ケーブル不要のモジュラー トレイ設計を採用し、80 社以上の MGX エコシステム パートナーのサポートにより、迅速なデプロイで世界トップクラスのパフォーマンスを提供します。

NVIDIA、Rubin で次世代 AI を始動 - 6 つの新チップと驚異的な AI スーパーコンピューター

この次世代プラットフォームは、メインストリームでの導入を拡張し、推論およびエージェント型 AI モデルに適した 5 つの画期的な技術革新によりトークンあたりのコストを大幅に削減します。

NVIDIA Rubin プラットフォームの内部: 6 つの新チップと AI スーパーコンピューター

徹底的な共同設計で開発された NVIDIA Vera Rubin は、チップではなくデータセンターをコンピューティングの単位として扱い、大規模な環境で効率的、安全、予測可能な形でインテリジェンスを生成する新たな基盤を確立します。

パフォーマンス

AI トレーニングと推論の効率が飛躍的に向上

トレーニングの効率性を向上

NVIDIA Rubin は、mixture-of-expert (MoE) モデルにおいて、NVIDIA Blackwell™ アーキテクチャとの比較で、AI トレーニングに必要な GPU を最大 1/4 に削減します。

パフォーマンスは変更される場合があります。100T トークンでトレーニングされた 10T MoE モデルをベースにした GPU の数(1か月の固定期間内)。

LLM 推論パフォーマンスは変更される場合があります。 Blackwell GB200 NVL72 と Rubin NVL72 との比較。832K/18K ISL/OSL を使用した Kimi-K2-Thinking モデルに基づく 100 万トークンあたりのコスト。

推論コストの削減

NVIDIA Rubinは、高度にインタラクティブな深層推論エージェント型 AI において、NVIDIA Blackwell アーキテクチャとの比較で、100 万トークンあたりのコストを 1/10 に削減します。

画期的なテクノロジ

AI スーパーコンピューターの内部

NVIDIA Rubin GPU

次世代 AI 向けに設計された、HBM4 搭載の Rubin GPU と第 3 世代 Transformer Engine。

NVIDIA Vera CPU

Vera CPU は、データ移動とエージェント型推論向けに開発され、確定的なパフォーマンスを備えた高帯域幅でエネルギー効率に優れたコンピューティングを提供します。

NVIDIA NVLink 6 スイッチ

NVLink 6 スイッチは、GPU あたり 3.6 テラバイト/秒 (TB/s) の全対全スケールアップ帯域幅を備え、AI 向けの高速 GPU 間通信を可能にします。

NVIDIA ConnectX-9 SuperNIC

ConnectX‑9 SuperNIC は、PCIe Gen6 を介して GPU あたり 1.6 テラビット/秒 (Tb/s) の帯域幅を提供し、低レイテンシの大規模な GPU ダイレクト ネットワーキングを実現するプログラマブル リモート ダイレクト メモリ アクセス (RDMA) を備えています。

NVIDIA BlueField-4 DPU

BlueField-4 DPU は、AI ファクトリーにおけるストレージ、ネットワーク、サイバーセキュリティ、弾力的なスケーリングにわたるデータ処理を高速化します。

コパッケージド オプティクスを備えた NVIDIA Spectrum-X イーサネット

シリコン フォトニクスを統合した Spectrum‑X イーサネット スケールアウト スイッチは、プラグイン式トランシーバーを搭載した従来のネットワーキングと比較して、5 倍の電力効率、10 倍のネットワーク回復性、最大 5 倍のアップタイムを実現します。

仕様¹

NVIDIA Vera Rubin NVL72 仕様

  NVIDIA Vera Rubin NVL72 NVIDIA Vera Rubin Superchip NVIDIA Rubin GPU
構成 72 基の NVIDIA Rubin GPU | 36 基の NVIDIA Vera CPU 2 Rubin GPU | 1 Vera CPU 1 Rubin GPU
NVFP4 推論 3,600 PFLOPS 100 PFLOPS 50 PFLOPS
NVFP4 トレーニング 2,520 PFLOPS 70 PFLOPS 35 PFLOPS
FP8/FP6 トレーニング 1,260 PFLOPS 35 PFLOPS 17.5 PFLOPS
INT8² 密度 18 POPS 0.5 POPS 0.25 POPS
FP16/BF16² 密度 288 PFLOPS 8 PFLOPS 4 PFLOPS
TF32² 密度 144 PFLOPS 4 PFLOPS 2 PFLOPS
FP32 9,360 TFLOPS 260 TFLOPS 130 TFLOPS
FP64 2,400 TFLOPS 67 TFLOPS 33 TFLOPS
FP32 SGEMM³ 28,800 TFLOPS 800 TFLOPS 400 TFLOPS
FP64 DGEMM³ 14,400 TFLOPS 400 TFLOPS 200 TFLOPS
GPU メモリ | 帯域幅 20.7 TB HBM4 | 1,580 TB/秒 576 GB HBM4 | 44 TB/秒 288 GB HBM4 | 22 TB/秒
NVLink 帯域幅 260 TB/秒 7.2 TB/秒 3.6 TB/秒
NVLink-C2C 帯域幅 65 TB/秒 1.8 TB/秒 -
CPU コア数 3,168 個のカスタム NVIDIA Olympus コア (Arm 互換) 88 個のカスタム NVIDIA Olympus コア (Arm 互換) -
CPU メモリ 54 TB LPDDR5X 1.5 TB LPDDR5X -
NVIDIA + HBM4 チップの合計 1,296 30 12

1. 速報値。すべての数値は変更される可能性があります
2. 密度仕様
3. Tensor Core ベースのエミュレーション アルゴリズムによるピーク パフォーマンス

今すぐ始める

NVIDIA の最新情報を受け取る

NVIDIA から最新情報、お知らせなどをお届けします。