事前学習、事後学習、推論時間のスケーリング法則が収束するにつれ、複雑なマルチステップの思考チェーンを必要とするモデルをサポートしようとする際に、最新のデータセンターはパフォーマンスと効率性のボトルネックに直面しています。
これらの課題に対応するために構築された NVIDIA DGX™ Vera Rubin NVL72 は、最先端のパフォーマンスを提供するターンキー AI インフラストラクチャ ソリューションであり、エネルギー効率を大幅に改善します。 DGX Vera Rubin NVL72 は、あらゆる AI ワークロードに業界をリードするワットあたりのパフォーマンスとトークンあたりのパフォーマンスを提供します。これにより、企業はトークン経済性を向上させながらインテリジェンスを劇的に拡張できます。
DGX Vera Rubin NVL72 は、電力効率に優れた NVIDIA Vera CPU と NVIDIA Rubin GPU を組み合わせて、業界をリードするワットあたりのパフォーマンスを実現します。 これにより、企業は既存のエネルギー フットプリント内でトレーニングと長期コンテキスト推論を拡張でき、データセンターを AI イノベーションのエネルギー効率に優れたエンジンに変えることができます。
NVIDIA DGX SuperPOD™ (DGX Vera Rubin NVL72 搭載) システムは、大規模 AI インフラストラクチャのデプロイにおける推測作業を排除します。シンプルで導入が容易なラック アーキテクチャを採用し、データセンター エンジニアリングの最新技術を活用できるように設計されています。
NVIDIA Mission Control™ は、DGX Vera Rubin NVL72 の構成から、設備との統合、クラスターとワークロードの管理まで、オペレーションのあらゆる側面を高速化します。 インテリジェントな統合ソフトウェアにより、企業は冷却および電力イベントを制御し、インフラストラクチャの回復力を再定義することが可能になります。
エンタープライズ AI のためにゼロから構築された NVIDIA DGX プラットフォームは、NVIDIA DGX SuperPOD を搭載し、最高の NVIDIA ソフトウェア、インフラストラクチャ、専門知識を組み合わせ、最新の統合 AI 開発ソリューションに統合しています。
| GPU | 72 基の NVIDIA Rubin GPU、36 基の NVIDIA Vera CPU |
| 合計 GPU メモリ | 帯域幅 | 20.7 TB | 最大 28.8 TB/秒 |
| 総高速メモリ | 75 TB |
| パフォーマンス | NVFP4 Inference: 3,600 PFLOPS NVFP4 Training: 2,520 PFLOPS FP8/FP6 Training: 1,260 PFLOPS |
| ネットワーク | > 144x OSFP シングルポート NVIDIA® ConnectX®-9 VPI と 800 Gb/s NVIDIA InfiniBand およびイーサネット > 18x デュアルポート NVIDIA BlueField®-4 VPI と 400 Gb/s NVIDIA InfiniBand およびイーサネット |
| NVIDIA NVLink™ スイッチ システム | 9 個の L1 NVIDIA NVLink スイッチ |
| 管理ネットワーク | RJ45 を搭載したホスト ベースボード管理コントローラー (BMC) |
| ソフトウェア | NVIDIA Mission Control、NVIDIA AI Enterprise、NVIDIA DGX OS |
| エンタープライズ サポート | ハードウェアとソフトウェアの 3 年間のエンタープライズ ビジネス スタンダード サポート |
仕様は予告なく変更される場合があります。
NVIDIA DGX Vera Rubin NVL72 について NVIDIA エキスパートにご相談ください。
NVIDIA DGX がエンタープライズ AI 構築の実証済みの標準である理由をご覧ください。
オンプレミスからホステッド ソリューションまで、柔軟なデプロイ オプションで、AI の可能性を最大限に引き出します。