Piattaforma NVIDIA HGX

Potenziare l'IA e il calcolo ad alte prestazioni per ogni data center.

Panoramica

Potenziare l'intelligenza artificiale (IA) e il calcolo ad alte prestazioni (HPC) per ogni data center

La piattaforma NVIDIA HGX™ riunisce tutta la potenza delle GPU NVIDIA, NVIDIA NVLink™, la rete NVIDIA e gli stack software di IA e calcolo ad alte prestazioni (HPC) completamente ottimizzati per fornire le massime prestazioni applicative e ottenere le informazioni nel minor tempo possibile in ogni data center.

NVIDIA HGX Rubin NVL8 integra otto GPU NVIDIA Rubin con le interconnessioni NVLink ad alta velocità di sesta generazione e offre un livello di NVFP4 FLOPS 5,5 volte superiore rispetto a HGX B200 per proiettare i data center nella nuova era del computing accelerato e dell'IA generativa.

NVIDIA dà il via alla nuova generazione di IA con Rubin: sei nuovi chip e un incredibile supercomputer

La piattaforma di nuova generazione scala l'adozione mainstream, riducendo i costi per token con cinque innovazioni per il ragionamento e i modelli di IA per agenti.

Scheda tecnica di NVIDIA HGX H100 e HGX H200

Scopri le capacità e le funzionalità dei sistemi HGX H100 e H200 di NVIDIA. Questa scheda tecnica fornisce informazioni dettagliate sulle specifiche e sulle prestazioni.

Prestazioni e versatilità del ragionamento IA

L'IA, le simulazioni complesse e gli enormi set di dati richiedono più GPU con interconnessioni estremamente veloci e uno stack software completamente accelerato. La piattaforma NVIDIA HGX™ riunisce tutta la potenza delle GPU NVIDIA, NVIDIA NVLink™, la rete NVIDIA e gli stack software di IA e calcolo ad alte prestazioni (HPC) completamente ottimizzati per fornire le massime prestazioni applicative e ottenere le informazioni nel minor tempo possibile in ogni data
center.

Piattaforma completa di computing accelerato senza pari

NVIDIA HGX B300 NVL16 integra le GPU NVIDIA Blackwell Ultra con interconnessioni ad alta velocità per proiettare il data center in una nuova era di calcolo accelerato e IA generativa. .Essendo una piattaforma di scalabilità accelerata di primo livello con prestazioni di inferenza fino a 11 volte superiori rispetto alla generazione precedente, i sistemi HGX basati su Blackwell NVIDIA sono progettati per l'IA generativa, l'analisi dei dati e i carichi di lavoro HPC più esigenti.

NVIDIA HGX include opzioni di rete avanzate, a velocità fino a 800 gigabit al secondo (Gb/s), utilizzando NVIDIA Quantum-X800 InfiniBand e Spectrum™-X Ethernet per le massime prestazioni IA. HGX include inoltre le unità di elaborazione dati (DPU) NVIDIA BlueField®-3 per consentire la rete cloud, lo storage componibile, la sicurezza zero-trust e l'elasticità di calcolo della GPU nei cloud IA iperscalabili. 

Prestazioni e versatilità del ragionamento IA

DeepSeek-R1 ISL = 32K, OSL = 8K, HGX B300 con disaggregazione FP4 NVIDIA Dynamo. H100 con batching in volo FP8. Prestazioni previste soggette a modifiche.

Aumenta il fatturato xx della produzione della fabbrica AI

La curva di frontiera illustra i parametri chiave che determinano il fatturato prodotto dai token delle fabbriche IA. L'asse verticale rappresenta il throughput in termini di token GPU al secondo (TPS) in una fabbrica IA da un megawatt (MW), mentre l'asse orizzontale quantifica l'interattività e la reattività degli utenti come TPS per un singolo utente. Nell'intersezione ottimale tra produttività e reattività, HGX B300 produce un aumento complessivo di 30 volte delle prestazioni di output della fabbrica IA rispetto all'architettura NVIDIA Hopper™, per il massimo fatturato con i token.

Addestramento scalabile per modelli IA di grandi dimensioni

Prestazioni di addestramento di nuovo livello

La piattaforma HGX B300 offre prestazioni di addestramento fino a 2,6 volte superiori per modelli linguistici di grandi dimensioni come DeepSeek-R1. Con oltre 2 TB di memoria ad alta velocità e 14,4 TB/s di larghezza di banda dello switch NVLink, consente l'addestramento dei modelli su larga scala e la comunicazione tra le GPU ad alto throughput.

Prestazioni previste soggette a modifica. Perf per GPU, FP8, 16K BS, lunghezza delle sequenze 16K.

Accelerare HGX con NVIDIA Networking

Le fabbriche IA e i centri di supercomputing si estendono su migliaia di GPU come un singolo motore di calcolo distribuito. Per mantenere gli acceleratori completamente utilizzati, i carichi di lavoro IA e scientifici richiedono una latenza deterministica, un throughput senza perdite, tempi di iterazione stabili e la capacità di scalare non solo all'interno di un data center, ma su più siti.

Il networking NVIDIA offre il fabric completo che rende tutto ciò possibile, combinando la scalabilità NVIDIA NVLink, la scalabilità NVIDIA Quantum InfiniBand e Spectrum-X™ Ethernet, la scalabilità Spectrum-XGS Ethernet multi-data center, la DPU NVIDIA® BlueField® e DOCA™ per i servizi infrastrutturali e le piattaforme di fotonica in silicio di nuova generazione, che consentono ai data center IA più esigenti al mondo.

Specifiche di NVIDIA HGX

NVIDIA HGX è disponibile in una singola scheda di base con otto NVIDIA Rubin, NVIDIA Blackwell o NVIDIA Blackwell Ultra SXMs. Queste potenti combinazioni di hardware e software gettano le basi per prestazioni di supercalcolo IA senza precedenti.

HGX Rubin NVL8*
Fattore di forma 8x NVIDIA Rubin SXM
Inferenza NVFP4 400 PFLOPS
Formazione su NVFP4 280 PFLOPS
FP8/FP6 Training 140 PF
INT8 Tensor Core<sup>1</sup> 2 PFLOPS
FP16/BF16 Tensor Core<sup>1</sup> 32 PFLOPS
TF32 Tensor Core<sup>1</sup> 16 PFLOPS
FP32 1040 TFLOPS
FP64/FP64 Tensor Core 264 TFLOPS
FP32 SGEMM | FP64 DGEMMCore<sup>2</sup> 3200 TF | 1600 TF
Memoria totale 2.3 TB
NVIDIA NVLink Sesta generazione
NVIDIA NVLink Switch Switch NVLink 6
Larghezza di banda NVLink GPU-GPU 3.6 TB/s
Larghezza di banda totale degli switch NVLink 28.8 TB/s
Larghezza di banda di rete 1.6 TB/s

* Specifica preliminare, soggetta a modifiche
1.  Specifica in Dense.
2.  Prestazioni di picco con algoritmi di emulazione basati su tensor core.

HGX Rubin NVL8
Form Factor 8x NVIDIA Rubin SXM
FP4 Tensor Core<sup>1</sup> 400 PFLOPS | 144 PFLOPS
FP8/FP6 Tensor Core<sup>2</sup> 272 PFLOPS
INT8 Tensor Core<sup>2</sup> 4 PFLOPS
FP16/BF16 Tensor Core<sup>2</sup> 64 PFLOPS
TF32 Tensor Core<sup>2</sup> 32 PFLOPS
FP32 1040 TFLOPS
FP64/FP64 Tensor Core 264 TFLOPS
Total Memory 2.3 TB
NVIDIA NVLink Sixth generation
NVIDIA NVLink Switch™ NVLink 6 Switch
NVLink GPU-to-GPU Bandwidth 3.6 TB/s
Total NVLink Bandwidth 28.8 TB/s
Networking Bandwidth 1.6 TB/s
Attention Performance<sup>3</sup> <awaiting results>2x
HGX B300 HGX B200
Fattore di forma 8x NVIDIA Blackwell Ultra SXM 8x NVIDIA Blackwell SXM
FP4 Tensor Core<sup>1</sup> 144 PFLOPS | 108 PFLOPS 144 PFLOPS | 72 PFLOPS
FP8/FP6 Tensor Core<sup>2</sup> 72 PFLOPS 72 PFLOPS
INT8 Tensor Core<sup>2</sup> 3 POPS 72 POPS
FP16/BF16 Tensor Core<sup>2</sup> 36 PFLOPS 36 PFLOPS
TF32 Tensor Core<sup>2</sup> 18 PFLOPS 18 PFLOPS
FP32 600 TFLOPS 600 TFLOPS
FP64/FP64 Tensor Core 10 TFLOPS 296 TFLOPS
Memoria totale 2.1 TB 1.4 TB
NVIDIA NVLink Quinta generazione Quinta generazione
NVIDIA NVLink Switch™ NVLink 5 Switch NVLink 5 Switch
Banda GPU-GPU NVSwitch 1.8 TB/s 1.8 TB/s
Banda NVLink totale 14.4 TB/s 14.4 TB/s
Networking Bandwidth 1.6 TB/s 0.8 TB/s
Attention Performance<sup>3</sup> 2x 1x

1. Specifica in Sparse | Dense
2. Specifica in Sparse. Dense corrisponde alla metà della matrice spec mostrata.
3. rispetto a NVIDIA Blackwell.

HGX B300 HGX B200
Form Factor 8x NVIDIA Blackwell Ultra SXM 8x NVIDIA Blackwell SXM
FP4 Tensor Core<sup>1</sup> 144 PFLOPS | 108 PFLOPS 144 PFLOPS | 72 PFLOPS
FP8/FP6 Tensor Core<sup>2</sup> 72 PFLOPS 72 PFLOPS
INT8 Tensor Core<sup>2</sup> 3 POPS 72 POPS
FP16/BF16 Tensor Core<sup>2</sup> 36 PFLOPS 36 PFLOPS
TF32 Tensor Core<sup>2</sup> 18 PFLOPS 18 PFLOPS
FP32 600 TFLOPS 600 TFLOPS
FP64/FP64 Tensor Core 10 TFLOPS 296 TFLOPS
Total Memory 2.1 TB 1.4 TB
NVIDIA NVLink Fifth generation Fifth generation
NVIDIA NVLink Switch™ NVLink 5 Switch NVLink 5 Switch
NVLink GPU-to-GPU Bandwidth 1.8 TB/s 1.8 TB/s
Total NVLink Bandwidth 14.4 TB/s 14.4 TB/s
Networking Bandwidth 1.6 TB/s 0.8 TB/s
Attention Performance<sup>3</sup> 2x 1x

Scopri di più sulla piattaforma NVIDIA Rubin.