Turbinando IA e computação de alto desempenho para todos os data centers.
A plataforma NVIDIA HGX™ reúne todo o poder das GPUs NVIDIA, do NVIDIA NVLink™, da rede NVIDIA e dos stacks de software de IA e computação de alto desempenho (HPC) totalmente otimizados para fornecer o mais alto desempenho de aplicações e impulsionar o tempo mais rápido para insights para todos os data centers.
O NVIDIA HGX Rubin NVL8 integra oito GPUs NVIDIA Rubin com interconexões NVLink de sexta geração, oferecendo 5,5 vezes mais NVFP4 FLOPS do que o HGX B200 para impulsionar o Data Center para uma nova era de computação acelerada e IA generativa.
Fábricas de IA e centros de supercomputação abrangem milhares de GPUs como um único mecanismo de computação distribuída. Para manter os aceleradores totalmente utilizados, as cargas de trabalho científicas e de IA exigem latência determinista, taxa de transferência sem perdas, tempos de iteração estáveis e a capacidade de escalar não apenas em um data center, mas também em vários locais.
A rede NVIDIA oferece a rede de stack completa que torna isso possível, combinando a escalabilidade do NVIDIA NVLink, o NVIDIA Quantum InfiniBand e o Spectrum-X™ Ethernet, o Spectrum-XGS Ethernet em escala de vários Data Center, a DPU NVIDIA® BlueField® e o DOCA™ para serviços de infraestrutura e plataformas de silício e fotônica de última geração, permitindo os data center de IA mais exigentes do mundo.
O NVIDIA HGX está disponível em uma única placa base com oito SXMs NVIDIA Rubin, NVIDIA Blackwell ou NVIDIA Blackwell Ultra. Essas potentes combinações de hardware e software estabelecem as bases para um desempenho de supercomputação de IA sem precedentes.
| HGX Rubin NVL8* | |
|---|---|
| Form Factor | 8x NVIDIA Rubin SXM |
| NVFP4 Inference | 400 PFLOPS |
| NVFP4 Training<sup>1</sup> | 280 PFLOPS |
| FP8/FP6 Training<sup>1</sup> | 140 PFLOPS |
| INT8 Tensor Core<sup>1</sup> | 2 PFLOPS |
| FP16/BF16 Tensor Core<sup>1</sup> | 32 PFLOPS |
| TF32 Tensor Core<sup>1</sup> | 16 PFLOPS |
| FP32 | 1040 TFLOPS |
| FP64/FP64 Tensor Core | 264 TFLOPS |
| FP32 SGEMM | FP64 DGEMM<sup>2</sup> | 3200 TFLOPS | 1600 TFLOPS |
| Total Memory | 2.3 TB |
| NVIDIA NVLink | Sixth generation |
| NVIDIA NVLink Switch | NVLink 6 Switch |
| NVLink GPU-to-GPU Bandwidth | 3.6 TB/s |
| Total NVLink Switch Bandwidth | 28.8 TB/s |
| Networking Bandwidth | 1.6 TB/s |
* Especificação preliminar, sujeita a alteração
1. Especificação em Dense.
2. Desempenho de pico usando algoritmos de emulação baseados em núcleos do tensor.
| HGX B300<sup>4</sup> | HGX B200<sup>4</sup> | |
|---|---|---|
| Form Factor | 8x NVIDIA Blackwell Ultra SXM | 8x NVIDIA Blackwell SXM |
| FP4 Tensor Core<sup>1</sup> | 144 PFLOPS | 108 PFLOPS | 144 PFLOPS | 72 PFLOPS |
| FP8/FP6 Tensor Core<sup>2</sup> | 72 PFLOPS | 72 PFLOPS |
| INT8 Tensor Core<sup>2</sup> | 3 POPS | 72 POPS |
| FP16/BF16 Tensor Core<sup>2</sup> | 36 PFLOPS | 36 PFLOPS |
| TF32 Tensor Core<sup>2</sup> | 18 PFLOPS | 18 PFLOPS |
| FP32 | 600 TFLOPS | 600 TFLOPS |
| FP64/FP64 Tensor Core | 10 TFLOPS | 296 TFLOPS |
| Total Memory | 2.1 TB | 1.4 TB |
| NVIDIA NVLink | Fifth generation | Fifth generation |
| NVIDIA NVLink Switch™ | NVLink 5 Switch | NVLink 5 Switch |
| NVLink GPU-to-GPU Bandwidth | 1.8 TB/s | 1.8 TB/s |
| Total NVLink Bandwidth | 14.4 TB/s | 14.4 TB/s |
| Networking Bandwidth | 1.6 TB/s | 0.8 TB/s |
| Attention Performance<sup>3</sup> | 2x | 1x |
1. Especificação em Sparse | Dense
2. Especificação em Sparse. Dense é metade da especificação mostrada do Sparse.
3. vs. NVIDIA Blackwell.
Saiba Mais sobre a Plataforma NVIDIA Rubin.