NVIDIA Grace Blackwell GB200

NVIDIA GB200 NVL72

Impulsamos la nueva era de la computación.

Descubrir modelos de billones de parámetros en tiempo real

GB200 NVL72 conecta 36 CPU Grace y 72 GPU Blackwell en un diseño a escala de bastidor. GB200 NVL72 es una solución a escala de bastidor con refrigeración por líquido que cuenta con un dominio NVLink de 72 GPU que actúa como una única GPU masiva y proporciona una inferencia de LLM en tiempo real 30 veces más rápida para billones de parámetros.

GB200 Grace Blackwell Superchip es un componente clave de NVIDIA GB200 NVL72, que conecta dos GPU NVIDIA Blackwell Tensor Core de alto rendimiento y una CPU NVIDIA Grace mediante la interconexión NVIDIA® NVLink®-C2C a las dos GPU Blackwell.

La arquitectura a escala de bastidor Blackwell para la inferencia y el entrenamiento de billones de parámetros en tiempo real

NVIDIA GB200 NVL72 es un ordenador de exaescala en un único bastidor. Con 36 GB200 interconectados por el mayor dominio NVIDIA® NVLink® jamás ofrecido, el sistema de conmutadores NVLink proporciona 130 terabytes por segundo (TB/s) de comunicaciones de GPU de baja latencia para cargas de trabajo de IA y computación de alto rendimiento (HPC).

Aspectos destacados

Impulsar la IA de próxima generación y la computación acelerada

Inferencia de LLM

30 veces

Entrenamiento de LLM

4 veces

Eficiencia energética

25 veces

Procesamiento de datos

18 veces

Inferencia de LLM y eficiencia energética: TTL= 50 milisegundos (ms) en tiempo real, FTL= 5 s, 32 768 entradas/1024 salidas, NVIDIA HGX™ H100 escalada sobre InfiniBand (IB) frente a GB200 NVL72, entrenamiento de HGX H100 de 4096x MOE 1.8T escalada sobre IB frente a GB200 NVL72 de 456x escalada sobre IB. Tamaño del clúster: 32 768
Una carga de trabajo de agregación y unión a bases de datos con compresión Snappy/Deflate derivada de la consulta TPC-H Q4. Implementaciones de consulta personalizadas para una sola GPU x86, H100 y una sola GPU de GB200 NLV72 frente a Intel Xeon 8480+
Rendimiento previsto sujeto a cambios.

Inferencia de LLM en tiempo real

GB200 presenta capacidades de vanguardia y un motor de inferencia que, cuando se combina con la quinta generación de NVIDIA® NVLink, proporciona un rendimiento de inferencia de LLM 30 veces superior en tiempo real para modelos lingüísticos de varios billones de parámetros. Este avance es posible gracias a una nueva generación de Tensor Cores, que introducen nuevas precisiones FP4 de microescalado. Además, la GB200 NVL72 utiliza NVLink y refrigeración líquida para crear un único bastidor masivo de 72 GPU que puede superar los cuellos de botella en las comunicaciones.

Entrenamiento a gran escala

GB200 incluye un motor transformador más rápido con precisión FP8, lo que permite un entrenamiento 4 veces más rápido para modelos lingüísticos de gran tamaño a escala. Este avance se complementa con NVLink de quinta generación, que proporciona 1,8 terabytes por segundo (TB/s) de interconexión GPU-GPU, redes InfiniBand y el software NVIDIA Magnum IO™.

Infraestructura con eficiencia energética

Los bastidores GB200 NVL72 con refrigeración por líquido reducen la huella de carbono y el consumo energético de un centro de datos. La refrigeración por líquido aumenta la densidad de computación, reduce la superficie utilizada y facilita la comunicación entre GPU de alto ancho de banda y baja latencia con grandes arquitecturas de dominio NVLink. En comparación con la infraestructura H100 refrigerada por aire, GB200 ofrece un rendimiento 25 veces superior con la misma potencia, al tiempo que reduce el consumo de agua más de 13 veces.

Procesamiento de datos

Las bases de datos desempeñan un papel fundamental en la gestión, el procesamiento y el análisis de grandes volúmenes de datos para las empresas GB200 aprovecha el alto ancho de banda de NVLink-C2C y los motores de descompresión dedicados de la arquitectura NVIDIA Blackwell para acelerar 18 veces las consultas de bases de datos clave en comparación con la CPU y ofrecer un TCO 5 veces mejor.

Características

Technological Breakthroughs

Arquitectura Blackwell

La arquitectura NVIDIA Blackwell ofrece avances revolucionarios en computación acelerada, y define la nueva era de la IA generativa con un rendimiento, eficiencia y escala sin precedentes.

CPU NVIDIA Grace

NVIDIA Grace CPU Superchip es un procesador revolucionario diseñado para centros de datos modernos que ejecutan aplicaciones de IA, en la nube y HPC. Ofrece un rendimiento y un ancho de banda de memoria extraordinarios con una eficiencia energética 2 veces superior a la de los principales procesadores de servidores actuales.

NVIDIA NVLink de quinta generación

Para liberar todo el potencial de la computación de exaescala y los modelos de IA de billones de parámetros se necesita una comunicación rápida y fluida entre todas las GPU de un clúster de servidores. La quinta generación de NVLink es una interconexión a escala vertical que libera un rendimiento acelerado para modelos de IA de varios billones de parámetros.

NVIDIA Networking

La red del centro de datos desempeña un papel crucial a la hora de impulsar los avances y el rendimiento de la IA, ya que sirve de base para el entrenamiento distribuido de modelos de IA y el rendimiento de la IA generativa. Las DPU NVIDIA Quantum-X800 InfiniBand, NVIDIA Spectrum™-X800 Ethernet y NVIDIA BlueField®-3 permiten una escalabilidad eficiente a través de cientos y miles de GPU Blackwell para lograr un rendimiento óptimo de las aplicaciones.

Especificaciones

Especificaciones de GB200 NVL721

  GB200 NVL72 GB200 Grace Blackwell Superchip
Configuración 36 CPU Grace: 72 GPU Blackwell 1 CPU Grace: 2 GPU Blackwell
Tensor Core de FP42 1440 PFLOPS 40 PFLOPS
Tensor Core de FP8/FP62 720 PFLOPS 20 PFLOPS
Tensor Core de INT82 720 POPS 20 POPS
Tensor Core de FP16/BF162 360 PFLOPS 10 PFLOPS
Tensor Core de TF322 180 PFLOPS 5 PFLOPS
Tensor Core de FP64 3240 TFLOPS 90 TFLOPS
Memoria GPU | Ancho de banda HBM3e de hasta 13,5 TB | 576 TB/s HBM3e de hasta 384 GB | 16 TB/s
Ancho de banda NVLink 130 TB/s 3,6 TB/s
Recuento de núcleos de CPU 2592 núcleos Arm® Neoverse V2 72 núcleos Arm® Neoverse V2
Memoria GPU | Ancho de banda LPDDR5X de hasta 17 TB | Hasta 18,4 TB/s LPDDR5X de hasta 480 GB | Hasta 512 GB/s

Primeros pasos

Mantenerse al día

Regístrese para saber cuándo estará disponible NVIDIA Blackwell.