Rack singolo NVIDIA Vera Rubin NVL72

NVIDIA Vera Rubin NVL72

Costruire la nuova frontiera dell'IA

Panoramica

Sei nuovi chip, un supercomputer IA

NVIDIA Vera Rubin NVL72 riunisce le tecnologie all'avanguardia di NVIDIA: 72 GPU Rubin, 36 CPU Vera, SuperNIC ConnectX®-9 e DPU BlueField®-4. Aumenta l'intelligenza in una piattaforma e scalabile in rack con lo switch NVIDIA NVLink™ 6 e si espande con NVIDIA Quantum-X800 InfiniBand e Spectrum-X™ Ethernet per alimentare la rivoluzione industriale IA su larga scala.

Basato sul design rack NVIDIA MGX™ NVL72 di terza generazione, Vera Rubin NVL72 offre una transizione fluida rispetto alle generazioni precedenti. Offre addestramento IA con un quarto delle GPU e inferenza IA a un settimo del costo per milione di token rispetto a NVIDIA Blackwell. Con il design di vassoi modulari senza cavi e il supporto di oltre 80 partner dell'ecosistema MGX, il supercomputer IA scalabile in rack offre prestazioni di livello mondiale con una distribuzione rapida.

NVIDIA dà il via alla nuova generazione di IA con Rubin: sei nuovi chip e un incredibile supercomputer IA

La piattaforma di nuova generazione scala l'adozione mainstream, riducendo i costi per token con cinque innovazioni per il ragionamento e i modelli di IA per agenti.

Dentro la piattaforma NVIDIA Rubin: sei nuovi chip, un supercomputer IA

Grazie a una coprogettazione estrema, NVIDIA Vera Rubin prende in considerazione il data center e non il chip come unità di calcolo, stabilendo una nuova base per produrre intelligenza su larga scala in modo efficiente, sicuro e prevedibile.

Prestazioni

Guadagni di efficienza enormi nell'addestramento e nell'inferenza

Aumentare l'efficienza dell'addestramento

NVIDIA Rubin addestra modelli mixture-of-expert (MoE) con un quarto del numero di GPU rispetto all'architettura NVIDIA Blackwell.

Prestazioni previste soggette a modifiche. Numero di GPU basate sul modello a 10 T MoE addestrato su 100 T token in un periodo di tempo fisso di 1 mese.

Prestazioni di inferenza LLM soggette a modifiche. Costo per 1 milione di token basato sul modello Kimi-K2-Thinking che utilizza 32K/8K ISL/OSL confrontando Blackwell GB200 NVL72 e Rubin NVL72.

Ridurre i costi dell'inferenza

NVIDIA Rubin offre un decimo del costo per milione di token rispetto a NVIDIA Blackwell, per un'IA agentica altamente interattiva e capace di ragionamento profondo.

Innovazioni tecnologiche

Dentro il supercomputer IA

GPU NVIDIA Rubin

Le GPU Rubin con HBM4 e Transformer Engine di terza generazione sono progettate per la nuova generazione di IA.

CPU NVIDIA Vera

Le CPU Vera sono progettate appositamente per il movimento di dati e il ragionamento legato all'intenzionalità, offrendo calcolo ad alta larghezza di banda, efficienza energetica e prestazioni deterministiche.

Switch NVIDIA NVLink 6

Gli switch NVLink 6 offrono 3,6 terabyte al secondo (TB/s) di larghezza di banda scalabile per GPU, consentendo le comunicazioni GPU-GPU ad alta velocità per l'IA.

NVIDIA ConnectX-9 SuperNIC

Le SuperNIC ConnectX‑9 offrono 1,6 terabit al secondo (Tb/s) di larghezza di banda per GPU, con accesso remoto diretto alla memoria (RDMA) programmabile per il networking GPU-direct a bassa latenza su larga scala.

DPU NVIDIA BlueField-4

Le DPU BlueField-4 accelerano l'elaborazione dei dati nello storage, nel networking, nella sicurezza informatica e nella scalabilità elastica nelle fabbriche di IA.

NVIDIA Spectrum-X Ethernet con ottiche co-packaged

Gli switch scale-out Spectrum‑X Ethernet con fotonica in silicio integrata offrono un'efficienza energetica 5 volte superiore, una resilienza di rete 10 volte superiore e un tempo di attività fino a 5 volte superiore rispetto alle reti tradizionali con i ricetrasmettitori collegabili.

Specifiche¹

Specifiche di NVIDIA Vera Rubin NVL72

  NVIDIA Vera Rubin NVL72 Superchip NVIDIA Vera Rubin GPU NVIDIA Rubin
Configurazione 72 GPU NVIDIA Rubin | 36 CPU NVIDIA Vera 2 GPU Rubin | 1 CPU Vera 1 GPU Rubin
Inferenza NVFP4 3.600 PFLOPS 100 PFLOPS 50 PFLOPS
Formazione su NVFP4 2.520 PFLOPS 70 PFLOPS 35 PFLOPS
FP8/FP6 Training 1.260 PFLOPS 35 PFLOPS 17,5 PFLOPS
INT8² Dense 18 POPS 0,5 POPS 0,25 POPS
FP16/BF16² Dense 288 PFLOPS 8 PFLOPS 4 PFLOPS
TF32² Dense 144 PFLOPS 4 PFLOPS 2 PFLOPS
FP32 9.360 TFLOPS 260 TFLOPS 130 TFLOPS
FP64 2.400 TFLOPS 67 TFLOPS 33 TFLOPS
FP32 SGEMM³ 28.800 TFLOPS 800 TFLOPS 400 TFLOPS
FP64 DGEMM³ 14.400 TFLOPS 400 TFLOPS 200 TFLOPS
Memoria GPU | Larghezza di banda 20,7 TB HBM4 | 1.580 TB/s 576 GB HBM4 | 44 TB/s 288 GB HBM4 | 22 TB/s
Larghezza di banda NVLink 260 TB/s 7,2 TB/s 3,6 TB/s
Larghezza di banda NVLink-C2C 65 TB/s 1,8 TB/s -
Numero di core CPU 3.168 core NVIDIA Olympus personalizzati (compatibili con Arm) 88 core NVIDIA Olympus personalizzati (compatibili con Arm) -
Memoria CPU 54 TB LPDDR5X 1,5 TB LPDDR5X -
Totale chip NVIDIA + HBM4 1.296 30 12

1. Informazioni preliminari, tutti i valori sono indicativi e soggetti a modifiche
2. Specifica densa
3. Prestazioni di picco con gli algoritmi di emulazione basati su Tensor Core

Inizia

Ricevi le ultime notizie da NVIDIA

Iscriviti per ricevere le ultime notizie, gli aggiornamenti e altro da NVIDIA.