IA potenciada y computación de alto rendimiento para todos los data centers.
La plataforma NVIDIA HGX™ reúne todo el poder de las GPU de NVIDIA, NVIDIA NVLink™, las redes de NVIDIA y las pilas de software de IA y computación de alto rendimiento (HPC) completamente optimizadas para proporcionar el más alto desempeño de aplicaciones y acelerar el tiempo de obtención de información para todos los data centers.
NVIDIA HGX Rubin NVL8 integra ocho GPU NVIDIA Rubin con interconexiones NVLink de alta velocidad de sexta generación, lo que ofrece 5,5 veces más NVFP4 FLOPS que HGX B200 para impulsar al data center a una nueva era de computación acelerada e IA generativa.
Las fábricas de IA y los centros de supercomputación abarcan miles de GPU como un solo motor de computación distribuida Para mantener los aceleradores completamente utilizados, las cargas de trabajo de IA y científicas exigen una latencia determinista, un rendimiento sin pérdidas, tiempos de iteración estables y la capacidad de escalar no solo dentro de un data center, sino también en varios sitios.
Las redes de NVIDIA ofrecen la estructura de pila completa que lo hace posible, ya que combina la escalabilidad de NVLink de NVIDIA, la escalabilidad de NVIDIA Quantum InfiniBand y Spectrum-X™ Ethernet, la escalabilidad de múltiples centros de datos Spectrum-XGS Ethernet, la DPU NVIDIA® BlueField® y DOCA™ para servicios de infraestructura, y plataformas de fotónica de silicio de última generación, lo que permite los data centers de IA más exigentes del mundo.
NVIDIA HGX está disponible en una sola placa base con ocho NVIDIA Rubin, NVIDIA Blackwell o NVIDIA Blackwell Ultra SXMs. Estas potentes combinaciones de hardware y software sientan las bases para un desempeño de supercomputación de IA sin precedentes.
| HGX Rubin NVL8* | |
|---|---|
| Form Factor | 8x NVIDIA Rubin SXM |
| NVFP4 Inference | 400 PFLOPS |
| NVFP4 Training<sup>1</sup> | 280 PFLOPS |
| FP8/FP6 Training<sup>1</sup> | 140 PFLOPS |
| INT8 Tensor Core<sup>1</sup> | 2 PFLOPS |
| FP16/BF16 Tensor Core<sup>1</sup> | 32 PFLOPS |
| TF32 Tensor Core<sup>1</sup> | 16 PFLOPS |
| FP32 | 1040 TFLOPS |
| FP64/FP64 Tensor Core | 264 TFLOPS |
| FP32 SGEMM | FP64 DGEMM<sup>2</sup> | 3200 TFLOPS | 1600 TFLOPS |
| Total Memory | 2.3 TB |
| NVIDIA NVLink | Sixth generation |
| NVIDIA NVLink Switch | NVLink 6 Switch |
| NVLink GPU-to-GPU Bandwidth | 3.6 TB/s |
| Total NVLink Switch Bandwidth | 28.8 TB/s |
| Networking Bandwidth | 1.6 TB/s |
* Especificación preliminar, sujeta a cambios
1. Especificación en Densa.
2. Desempeño máximo mediante algoritmos de emulación basados en núcleos tensores.
| HGX B300<sup>4</sup> | HGX B200<sup>4</sup> | |
|---|---|---|
| Form Factor | 8x NVIDIA Blackwell Ultra SXM | 8x NVIDIA Blackwell SXM |
| FP4 Tensor Core<sup>1</sup> | 144 PFLOPS | 108 PFLOPS | 144 PFLOPS | 72 PFLOPS |
| FP8/FP6 Tensor Core<sup>2</sup> | 72 PFLOPS | 72 PFLOPS |
| INT8 Tensor Core<sup>2</sup> | 3 POPS | 72 POPS |
| FP16/BF16 Tensor Core<sup>2</sup> | 36 PFLOPS | 36 PFLOPS |
| TF32 Tensor Core<sup>2</sup> | 18 PFLOPS | 18 PFLOPS |
| FP32 | 600 TFLOPS | 600 TFLOPS |
| FP64/FP64 Tensor Core | 10 TFLOPS | 296 TFLOPS |
| Total Memory | 2.1 TB | 1.4 TB |
| NVIDIA NVLink | Fifth generation | Fifth generation |
| NVIDIA NVLink Switch™ | NVLink 5 Switch | NVLink 5 Switch |
| NVLink GPU-to-GPU Bandwidth | 1.8 TB/s | 1.8 TB/s |
| Total NVLink Bandwidth | 14.4 TB/s | 14.4 TB/s |
| Networking Bandwidth | 1.6 TB/s | 0.8 TB/s |
| Attention Performance<sup>3</sup> | 2x | 1x |
1. Especificación en Dispersa | Densa
2. Especificación en Dispersa. Densa es la ½ de la especificación dispersa que se muestra.
3. frente a NVIDIA Blackwell.
Más Información sobre la Plataforma NVIDIA Rubin.