Single Rack NVIDIA Vera Rubin NVL72

NVIDIA Vera Rubin NVL72

Den nächsten Meilenstein der KI gestalten

Überblick

Sechs neue Chips, ein KI-Supercomputer

NVIDIA Vera Rubin NVL72 verbindet modernste Technologien von NVIDIA: 72 Rubin-GPUs, 36 Vera-CPUs, ConnectX®-9 SuperNICs und BlueField®-4 DPUs. Die Plattform skaliert KI-Leistungsfähigkeit innerhalb eines Rack-Scale-Systems mit dem NVIDIA NVLink™ 6 Switch und skaliert horizontal mit NVIDIA Quantum-X800 InfiniBand und Spectrum-X™ Ethernet als Basis für die industrielle KI-Transformation im großen Maßstab.

Vera Rubin NVL72 basiert auf dem NVIDIA MGX™ NVL72 Rack-Design der dritten Generation und bietet einen nahtlosen Übergang zu Vorgängergenerationen. Es ermöglicht KI-Training mit einem Viertel der GPUs und KI-Inferenz zu einem Siebtel der Kosten pro Million Token im Vergleich zu NVIDIA Blackwell. Mit kabellosen modularen Tray-Designs und der Unterstützung von über 80 MGX-Ökosystempartnern bietet der KI-Supercomputer im Rack-Maßstab erstklassige Leistung bei schneller Bereitstellung.

NVIDIA läutet mit Rubin die nächste Generation der KI ein – sechs neue Chips, ein unglaublicher KI-Supercomputer

Die Plattform der nächsten Generation skaliert die Mainstream-Einführung und senkt die Kosten pro Token mit fünf Durchbrüchen für Reasoning- und agentische KI-Modelle.

Innerhalb der NVIDIA Rubin Plattform: sechs neue Chips, ein KI-Supercomputer

NVIDIA Vera Rubin wurde durch ein extremes Codesign entwickelt. Es behandelt das Rechenzentrum, nicht den Chip, als Recheneinheit und schafft so eine neue Grundlage für die effiziente, sichere und vorhersehbare Produktion von Intelligenz im großen Maßstab.

Leistung

Enorme Effizienzgewinne bei KI-Training und Inferenz

Steigerung der Trainingseffizienz

NVIDIA Rubin trainiert MoE- (Mixture-of-Expert-)Modelle mit nur einem Viertel der GPUs auf der NVIDIA Blackwell-Architektur.

Änderungen bei der Leistung vorbehalten. Anzahl der GPUs auf Basis eines 10-T-MoE-Modells, die in einem festen Zeitrahmen von einem Monat mit 100-T-Token trainiert wurden.

Änderungen der LLM-Inferenzleistung vorbehalten. Kosten pro 1 Million Token basierend auf einem Kimi-K2-Thinking-Modell mit 32K/8K ISL/OSL und Vergleich von Blackwell GB200 NVL72 und Rubin NVL72.

Senkung der Inferenzkosten

NVIDIA Rubin bietet zu einem Zehntel der Kosten pro Million Tokens verglichen mit NVIDIA Blackwell eine hochinteraktive agentische KI mit fortgeschrittener Schlussfolgerungsfähigkeit.

Technologische Durchbrüche

Das Innere des KI-Supercomputers

NVIDIA Rubin GPU

Rubin-GPUs mit HBM4 und der Transformer-Engine der dritten Generation wurden für die nächste Generation der KI entwickelt.

NVIDIA Vera CPU

Vera-CPUs wurden speziell für Datenbewegungen und agentisches Reasoning entwickelt und bieten energieeffiziente Rechenleistung mit hoher Bandbreite und deterministischer Leistung.

NVIDIA NVLink 6 Switch

NVLink 6 Switches bieten eine skalierbare All-to-all-Bandbreite von 3,6 Terabyte pro Sekunde (TB/s) und ermöglichen eine Hochgeschwindigkeits-GPU-zu-GPU-Kommunikation für KI.

NVIDIA ConnectX-9 SuperNIC

ConnectX-9 SuperNICs bieten eine Bandbreite von 1,6 Terabit pro Sekunde (Tb/s) pro GPU mit programmierbarem Remote Direct-Memory Access (RDMA) für GPU-direktes Netzwerk mit geringer Latenz im großen Maßstab.

NVIDIA BlueField-4 DPU

BlueField-4-DPUs beschleunigen die Datenverarbeitung über Datenspeichern, Netzwerken, Cybersicherheit und elastische Skalierung in KI-Fabriken hinweg.

NVIDIA Spectrum-X Ethernet mit integrierter Optik

Spectrum-X Ethernet Scale-out-Switches mit integrierter Silizium-Photonik bieten eine fünffach bessere Energieeffizienz, eine zehnfach höhere Netzwerkausfallsicherheit und eine bis zu fünffach höhere Betriebszeit im Vergleich zu herkömmlichen Netzwerken mit steckbaren Transceivern.

Spezifikationen¹

NVIDIA Vera Rubin NVL72 – Spezifikationen

  NVIDIA Vera Rubin NVL72 NVIDIA Vera Rubin Superchip NVIDIA Rubin GPU
Konfiguration: 72 NVIDIA Rubin GPUs | 36 NVIDIA Vera CPUs 2 Rubin GPUs | 1 Vera CPU 1 Rubin GPU
NVFP4 Inferenz 3,600 PFLOPS 100 PFLOPS 50 PFLOPS
NVFP4 Training 2,520 PFLOPS 70 PFLOPS 35 PFLOPS
FP8/FP6 Training 1,260 PFLOPS 35 PFLOPS 17,5 PFLOPS
INT8² Dense 18 POPS 0,5 POPS 0,25 POPS
FP16/BF16² Dense 288 PFLOPS 8 PFLOPS 4 PFLOPS
TF32² Dense 144 PFLOPS 4 PFLOPS 2 PFLOPS
FP32 9,360 TFLOPS 260 TFLOPS 130 TFLOPS
FP64 2,400 TFLOPS 67 TFLOPS 33 TFLOPS
FP32 SGEMM³ 28,800 TFLOPS 800 TFLOPS 400 TFLOPS
FP64 DGEMM³ 14,400 TFLOPS 400 TFLOPS 200 TFLOPS
GPU-Speicher | Bandbreite 20,7 TB HBM4 | 1.580 TB/s 576 GB HBM4 | 44 TB/s 288 GB HBM4 | 22 TB/s
Bandbreite von NVLink 260 TB/s 7,2 TB/s 3,6 TB/s
NVLink-C2C Bandbreite 65 TB/s 1,8 TB/s
Anzahl der CPU-Recheneinheiten 3.168 benutzerdefinierte NVIDIA Olympus-Kerne (Arm-kompatibel) 88 benutzerdefinierte NVIDIA Olympus-Kerne (Arm-kompatibel)
CPU-Speicher 54 TB LPDDR5X 1,5 TB LPDDR5X
NVIDIA + HBM4-Chips insgesamt 1.296 30 12

1. Vorläufige Informationen – alle Werte sind als "bis zu" zu verstehen und können sich ändern
2. Dichte Spezifikation
3. Spitzenleistung mit auf Tensor Core basierenden Emulationsalgorithmen

Erste Schritte

Bleiben Sie auf dem Laufenden über NVIDIA News

Melden Sie sich an, um aktuelle Nachrichten, Updates und mehr von NVIDIA zu erhalten.