シングル ラック NVIDIA Vera Rubin NVL72

NVIDIA Vera Rubin NVL72

次世代向けに構築された AI スーパーコンピューター。

概要

7 つの新しいチップ、1 つの AI スーパーコンピューター

NVIDIA Vera Rubin NVL72 は、72 基の Rubin GPU、36 基の Vera CPU、ConnectX®-9 SuperNIC™、BlueField®-4 DPU など、NVIDIA の最先端テクノロジを統合しています。これは、NVIDIA NVLink™ 6 スイッチを搭載したラックスケール プラットフォームでインテリジェンスをスケールアップし、NVIDIA Quantum-X800 InfiniBand と Spectrum-X™ イーサネットでスケールアウトすることで、大規模な AI 産業革命を推進します。NVIDIA Groq 3 LPX ラックと共に導入すれば、Vera Rubin NVL72 は兆パラメーター モデルと数百万トークンのコンテキストに対して新たなクラスの推論パフォーマンスを実現します。

第 3 世代 NVIDIA MGX™ NVL72 ラック設計を基盤に構築された Vera Rubin NVL72 は、前世代からのシームレスな移行を実現します。NVIDIA Blackwell と比較して、4 分の 1 の GPU で AI トレーニングを行い、100 万トークンあたり 10 分の 1 のコストで AI 推論を実現します。ケーブルレスのモジュラー トレイ設計と 80 社を超える MGX エコシステム パートナーから提供されるサポートを備え、このラックスケール AI スーパーコンピューターは、世界標準のパフォーマンスと迅速な展開を実現します。

NVIDIA が Rubin で次世代 AI を始動

この最先端のプラットフォームは、メインストリームでの導入を拡張し、推論およびエージェント型 AI モデルに適した 5 つの画期的な技術革新によりトークンあたりのコストを大幅に削減します。

NVIDIA Vera Rubin がエージェント型 AI のフロンティアを切り開く

NVIDIA Vera Rubinプラットフォームは、世界最大の AI ファクトリーの拡張のために、現在フル生産中の 7 つの新しいチップを提供します。

パフォーマンス

AI トレーニングと推論の効率が飛躍的に向上

トレーニングの効率性を向上

NVIDIA Rubin は、mixture-of-expert (MoE) モデルにおいて、NVIDIA Blackwell™ アーキテクチャとの比較で、AI トレーニングに必要な GPU を最大 1/4 に削減します。

パフォーマンスは変更される場合があります。100T トークンでトレーニングされた 10T MoE モデルをベースにした GPU の数(1か月の固定期間内)。

LLM 推論パフォーマンスは変更される場合があります。 Blackwell NVL72 と Rubin NVL72 との比較。32K/8K ISL/OSL を使用した Kimi-K2-Thinking モデルに基づく 100 万トークンあたりのコスト。

推論コストの削減

NVIDIA Rubinは、高度にインタラクティブな深層推論エージェント型 AI において、NVIDIA Blackwell アーキテクチャとの比較で、100 万トークンあたりのコストを 1/10 に削減します。

画期的なテクノロジ

AI スーパーコンピューターの内部

NVIDIA Rubin GPU

次世代 AI 向けに設計された、HBM4 搭載の Rubin GPU と第 3 世代 Transformer Engine。

NVIDIA Vera CPU

Vera CPU は、データ移動とエージェント型推論向けに開発され、確定的なパフォーマンスを備えた高帯域幅でエネルギー効率に優れたコンピューティングを提供します。

NVIDIA NVLink 6 スイッチ

NVLink 6 スイッチは、GPU あたり 3.6 テラバイト/秒 (TB/s) の全対全スケールアップ帯域幅を備え、AI 向けの高速 GPU 間通信を可能にします。

NVIDIA ConnectX-9 SuperNIC

ConnectX‑9 SuperNIC は、PCIe Gen6 を介して GPU あたり 1.6 テラビット/秒 (Tb/s) の帯域幅を提供し、低レイテンシの大規模な GPU ダイレクト ネットワーキングを実現するプログラマブル リモート ダイレクト メモリ アクセス (RDMA) を備えています。

NVIDIA BlueField-4 DPU

BlueField-4 DPU は、AI ファクトリーにおけるストレージ、ネットワーク、サイバーセキュリティ、弾力的なスケーリングにわたるデータ処理を高速化します。

コパッケージド オプティクスを備えた NVIDIA Spectrum-X イーサネット

シリコン フォトニクスを統合した Spectrum‑X イーサネット スケールアウト スイッチは、プラグイン式トランシーバーを搭載した従来のネットワーキングと比較して、5 倍の電力効率、10 倍のネットワーク回復性、最大 5 倍のアップタイムを実現します。

NVIDIA Groq 3 LPU

これは、エージェント型システムの低レイテンシと大規模コンテキストの要求を満たすように設計された、NVIDIA Vera Rubin NVL72 のための推論アクセラレーターです。NVIDIA Groq 3 LPX ラックは、256 基の LPU、128GB SRAM、40 PB/s メモリ帯域幅、ラックあたり 640 TB/s スケールアップ帯域幅を備えています。Vera Rubin NVL72 と協調設計されており、Blackwell と比較して兆パラメーター モデルに対してワットあたり 35 倍の推論パフォーマンスと最大 10 倍の収益機会を提供します。

仕様¹

NVIDIA Vera Rubin NVL72 仕様

  NVIDIA Vera Rubin NVL72 NVIDIA Vera Rubin Superchip NVIDIA Rubin GPU
構成 72 基の NVIDIA Rubin GPU | 36 基の NVIDIA Vera CPU 2 基の NVIDIA Rubin GPU | 1 基のNVIDIA Vera CPU 1 基のNVIDIA Rubin GPU
NVFP4 推論 3,600 PFLOPS 100 PFLOPS 50 PFLOPS
NVFP4² トレーニング 2,520 PFLOPS 70 PFLOPS 35 PFLOPS
FP8/FP6² トレーニング 1,260 PFLOPS 35 PFLOPS 17.5 PFLOPS
INT8² 密度 18 POPS 0.5 POPS 0.25 POPS
FP16/BF16² 密度 288 PFLOPS 8 PFLOPS 4 PFLOPS
TF32² 密度 144 PFLOPS 4 PFLOPS 2 PFLOPS
FP32 9,360 TFLOPS 260 TFLOPS 130 TFLOPS
FP64 2,400 TFLOPS 67 TFLOPS 33 TFLOPS
FP32 SGEMM³ 28,800 TFLOPS 800 TFLOPS 400 TFLOPS
FP64 DGEMM³ 14,400 TFLOPS 400 TFLOPS 200 TFLOPS
GPU メモリ | 帯域幅 20.7 TB HBM4 | 1,580 TB/秒 576 GB HBM4 | 44 TB/秒 288 GB HBM4 | 22 TB/秒
NVLink 帯域幅 260 TB/秒 7.2 TB/秒 3.6 TB/秒
NVLink-C2C 帯域幅 65 TB/秒 1.8 TB/秒 -
CPU コア数 3,168 個のカスタム NVIDIA Olympus コア (Arm 互換) 88 個のカスタム NVIDIA Olympus コア (Arm 互換) -
CPU メモリ 54 TB LPDDR5X 1.5 TB LPDDR5X -
NVIDIA + HBM4 チップの合計 1,296 30 12

1. 速報値。すべての数値は変更される可能性があります
2. 密度仕様
3. Tensor Core ベースのエミュレーション アルゴリズムによるピーク パフォーマンス

今すぐ始める

NVIDIA の最新情報を受け取る

NVIDIA から最新情報、お知らせなどをお届けします。