NVIDIA Grace Blackwell GB200

NVIDIA GB200 NVL72

Impulsamos la nueva era de la computación.

Descripción general

Descubrir modelos de billones de parámetros en tiempo real

NVIDIA GB200 NVL72 conecta 36 CPU Grace y 72 GPU Blackwell en un diseño a escala de bastidor refrigerado por líquido. Cuenta con un dominio NVIDIA NVLink™ de 72 GPU que actúa como una única GPU masiva y proporciona una inferencia de LLM en tiempo real 30 veces más rápida para billones de parámetros.

El GB200 Grace Blackwell Superchip es un componente clave del NVIDIA GB200 NVL72, que conecta dos GPU NVIDIA Blackwell Tensor Core de alto rendimiento y una CPU NVIDIA Grace™ mediante la interconexión NVLink-C2C a las dos GPU Blackwell.

La arquitectura a escala de bastidor Blackwell para la inferencia y el entrenamiento de billones de parámetros en tiempo real

NVIDIA GB200 NVL72 es un ordenador de exaescala en un único bastidor. Con 72 GPU NVIDIA Blackwell interconectadas por el mayor dominio NVIDIA NVLink® jamás ofrecido, el sistema de conmutadores NVLink proporciona 130 terabytes por segundo (TB/s) de comunicaciones de GPU de baja latencia para cargas de trabajo de IA y computación de alto rendimiento (HPC).

Aspectos destacados

Impulsar la IA de próxima generación y la computación acelerada

Inferencia de LLM

30 veces

Entrenamiento de LLM

4 veces

Eficiencia energética

25 veces

Procesamiento de datos

18 veces

Inferencia de LLM y eficiencia energética: TTL= 50 milisegundos (ms) en tiempo real, FTL= 5 s, 32 768 entradas/1024 salidas, NVIDIA HGX™ H100 escalada sobre InfiniBand (IB) frente a GB200 NVL72, entrenamiento de HGX H100 de 4096x MOE 1.8T escalada sobre IB frente a GB200 NVL72 de 456x escalada sobre IB. Tamaño del clúster: 32 768
Una carga de trabajo de agregación y unión a bases de datos con compresión Snappy/Deflate derivada de la consulta TPC-H Q4. Implementaciones de consulta personalizadas para una sola GPU x86, H100 y una sola GPU de GB200 NLV72 frente a Intel Xeon 8480+
Rendimiento previsto sujeto a cambios.

Inferencia de LLM en tiempo real

GB200 NVL72 introduce capacidades de vanguardia y un motor de transformación de segunda generación, que habilita la IA FP4. Cuando se combina con la quinta generación de NVIDIA NVLink, proporciona un rendimiento de inferencia de LLM 30 veces superior en tiempo real para modelos lingüísticos de varios billones de parámetros. Este avance es posible gracias a una nueva generación de núcleos Tensor, que introducen nuevos formatos de microescala, optimizados para la inferencia de IA de alto rendimiento y baja latencia. Además, el GB200 NVL72 utiliza NVLink y refrigeración líquida para crear un rack masivo de 72 GPU que puede superar los cuellos de botella de comunicación.

Entrenamiento a escala masiva

GB200 NVL72 incluye un motor transformador más rápido de segunda generación que ofrece una precisión FP8 y que permite un entrenamiento extraordinario 4 veces más rápido para modelos lingüísticos de gran tamaño a escala. Este avance se complementa con NVLink de quinta generación, que proporciona 1,8 TB/s de interconexión GPU-GPU, redes InfiniBand y el software NVIDIA Magnum IO™.

Infraestructura energéticamente eficiente

Los bastidores GB200 NVL72 con refrigeración líquida reducen la huella de carbono y el consumo de energía de los centros de datos. La refrigeración líquida incrementa la densidad de computación, reduce la cantidad de espacio en el suelo utilizado y facilita la comunicación de las unidades GPU de alto ancho de banda y baja latencia con grandes arquitecturas de dominio NVLink. En comparación con la infraestructura refrigerada por aire NVIDIA H100, GB200 ofrece 25 veces más rendimiento a la misma potencia, reduciendo al mismo tiempo el consumo de agua.

Procesamiento de datos

Las bases de datos desempeñan un papel fundamental en la gestión, el procesamiento y el análisis de grandes volúmenes de datos para las empresas. GB200 aprovecha el rendimiento de memoria de alto ancho de banda, NVLink-C2C, y motores de descompresión dedicados en la arquitectura NVIDIA Blackwell para acelerar 18 veces las consultas de bases de datos clave en comparación con la CPU y ofrecer un TCO 5 veces mejor.

NVIDIA GB200 NVL4

NVIDIA GB200 NVL4

NVIDIA GB200 NVL4 descubre el futuro de la HPC y la IA convergentes, ofreciendo un rendimiento revolucionario a través de un puente que conecta cuatro GPU NVIDIA NVLink Blackwell unificadas con dos CPU Grace a través de la interconexión NVLink-C2C. Compatible con los servidores modulares NVIDIA MGX™ refrigerados por líquido, ofrece hasta 2 veces más rendimiento para la computación científica, la IA para la formación científica y las aplicaciones de inferencia que la generación anterior.

Características

Technological Breakthroughs

Arquitectura Blackwell

La arquitectura NVIDIA Blackwell ofrece avances revolucionarios en computación acelerada, y define la nueva era de la IA generativa con un rendimiento, eficiencia y escala sin precedentes.

CPU NVIDIA Grace

NVIDIA Grace CPU Superchip es un procesador revolucionario diseñado para centros de datos modernos que ejecutan aplicaciones de IA, en la nube y HPC. Ofrece un rendimiento y un ancho de banda de memoria extraordinarios con una eficiencia energética 2 veces superior a la de los principales procesadores de servidores actuales.

NVIDIA NVLink de quinta generación

El aprovechamiento de todo el potencial de la computación a exaescala y de los modelos de IA con billones de parámetros exige una comunicación rápida y fluida entre cada GPU de un clúster de servidores. La quinta generación de NVLink es una interconexión a escala vertical que propicia un rendimiento acelerado para modelos de IA de billones de parámetros.

NVIDIA Networking

La red del centro de datos desempeña un papel crucial en el impulso de los avances y el rendimiento de la IA, y sirve de columna vertebral para el entrenamiento de modelos de IA distribuidos y el rendimiento de la IA generativa.  Las DPU NVIDIA Quantum-X800 InfiniBand, NVIDIA Spectrum™-X800 Ethernet y NVIDIA® BlueField®-3 permiten una escalabilidad eficiente en cientos de miles de GPU Blackwell para alcanzar un rendimiento de aplicaciones óptimo.

Fábrica de IA para la nueva revolución industrial

NVIDIA Mission Control

NVIDIA Mission Control potencia todos los aspectos de las operaciones de fábrica de IA NVIDIA GB200 NVL72, desde la orquestación de cargas de trabajo en el dominio NVLink de 72 GPU hasta la integración con las instalaciones. Aporta agilidad instantánea para la inferencia y el entrenamiento, al tiempo que ofrece inteligencia de pila completa para la resiliencia de la infraestructura. MIssion Control permite que todas las empresas puedan ejecutar la IA con eficiencia a hiperescala, lo que acelera la experimentación con IA.

Especificaciones

Especificaciones de GB200 NVL72¹

  GB200 NVL72 GB200 Grace Blackwell Superchip
Configuración 36 CPU Grace | 72 GPU Blackwell 1 CPU Grace | 2 GPU Blackwell
Tensor Core de NFP42 1440 | 720 PFLOPS 40 | 20 PFLOPS
Tensor Core de FP8/FP62 720 PFLOPS 20 PFLOPS
Tensor Core de INT82 720 POPS 20 POPS
Tensor Core de FP16/BF162 360 PFLOPS 10 PFLOPS
Tensor Core de TF32 180 PFLOPS 5 PFLOPS
FP32 5760 TFLOPS 160 TFLOPS
Tensor Core de FP64/FP64 2880 TFLOPS 80 TFLOPS
Memoria GPU | Ancho de banda HBM3E de 13,4 TB | 576 TB/s 372 GB HBM3E | 16 TB/s
Ancho de banda NVLink 130 TB/s 3,6 TB/s
Recuento de núcleos de CPU 2592 núcleos Arm® Neoverse V2 72 núcleos Arm® Neoverse V2
Memoria GPU | Ancho de banda 17 TB LPDDR5X | 14 TB/s LPDDR5X de 480 GB | 512 GB/s

NVIDIA GB300 NVL72

La NVIDIA GB300 NVL72 cuenta con una arquitectura totalmente refrigerada por líquido y a escala de bastidor que integra 72 GPU NVIDIA Blackwell Ultra y 36 CPU NVIDIA Grace™ basadas en Arm® en una única plataforma, diseñada específicamente para tareas de inferencia y razonamiento de IA a escala de tiempo de prueba. Las fábricas de IA aceleradas por la GB300 NVL72, que aprovechan NVIDIA Quantum-X800 InfiniBand o Spectrum-X Ethernet, ConnectX-8 SuperNIC y la gestión de NVIDIA Mission Control, ofrecen un aumento general de hasta 50 veces en el rendimiento de salida de fábrica de IA en comparación con las plataformas basadas en NVIDIA Hopper.

Primeros pasos

Mantenerse al día

Regístrese para saber cuándo estará disponible NVIDIA Blackwell.