NVIDIA GH200 Grace Hopper Superchip

La CPU acelerada y revolucionaria diseñada para aplicaciones de IA y HPC a gran escala.

Mayor rendimiento y una memoria más rápida: ancho de banda masivo para la eficiencia de cálculo

NVIDIA GH200 Grace Hopper™ Superchip es un procesador revolucionario diseñado desde cero para aplicaciones de IA y computación de alto rendimiento (HPC) a gran escala. El superchip ofrece hasta 10 veces más rendimiento para aplicaciones que ejecutan terabytes de datos, lo que permitirá a científicos e investigadores alcanzar soluciones sin precedentes para los problemas más complejos del mundo.

Echa un vistazo más de cerca al superchip

Superchip NVIDIA GH200 Grace Hopper

El Superchip GH200 Grace Hopper combina las arquitecturas NVIDIA Grace™ y Hopper™ que utilizan NVIDIA NVLink™-C2C a fin de ofrecer un modelo de memoria coherente con CPU y GPU para aplicaciones aceleradas de IA y HPC. Con 900 gigabytes por segundo (GB/s) de interfaz coherente, el superchip es 7 veces más rápido que PCIe Gen5. Además, con la memoria de la GPU HBM3 y HBM3e, potencia la computación acelerada y la IA generativa. GH200 ejecuta todas las pilas y plataformas de software de NVIDIA, incluidas NVIDIA AI Enterprise, el SDK HPC y Omniverse™

GH200 ya está disponible.

NVIDIA GH200 NVL2

La NVIDIA GH200 NVL2 conecta completamente dos superchips GH200 con NVLink, lo que ofrece hasta 288 GB de memoria de gran ancho de banda, 10 terabytes por segundo (TB/s) de ancho de banda de memoria y 1,2 TB de memoria rápida. La GH200 NVL2 ofrece hasta 3,5 veces más capacidad de memoria de GPU y 3 veces más ancho de banda que la GPU NVIDIA H100 Tensor Core en un solo servidor para las cargas de trabajo de computación y las de gran consumo de memoria.

Rendimiento

GH200 frente a CPU premium de doble zócalo | física: MILC Apex Medium

Computación científica

Al reunir las arquitecturas de CPU Grace y GPU Hopper basadas en Arm® con NVLink-C2C, los superchips NVIDIA GH200 aceleran la investigación científica y los descubrimientos en superordenadores de todo el mundo. Combinados, los superordenadores que aprovechan los superchips NVIDIA Grace Hopper ofrecen 200 exaflops, o 200 quintillones de cálculos por segundo, de potencia de procesamiento de IA energéticamente eficiente.

Resultados de NDS-DS ejecutando Apache Spark con NVIDIA RAPIDS™ Accelerator en GH200 de 16 nodos con SF10 frente a CPU premium de 16 nodos.

Procesamiento de datos

Los recientes avances en ancho de banda de almacenamiento y redes, junto con el fin de la ley de Moore, han trasladado los cuellos de botella de los análisis y las consultas a las CPU. Con GH200, la CPU y la GPU comparten una única tabla de páginas por proceso, lo que permite que todos los subprocesos de CPU y GPU accedan a toda la memoria asignada al sistema que puede residir en la memoria física de la CPU o GPU. GH200 elimina la necesidad de copiar memoria entre la CPU y la GPU, acelerando el procesamiento de datos hasta 36 veces.

Cara | lote = 1024 | vectores de salida = 85 M de tamaño 768. Búsqueda vectorial: lote = 10 000 | consultas de búsqueda vectorial = 10 000 en 85 M vectores.

Generación aumentada por recuperación

La generación aumentada por recuperación (RAG) conecta modelos lingüísticos de gran tamaño (LLM) con bases de conocimiento para mejorar la precisión del modelo. RAG requiere que se generen incrustaciones y que se ejecuten búsquedas vectoriales a escala. Los 72 núcleos de CPU Grace basados en Arm de bajo consumo aceleran el preprocesamiento de los datos de la base de conocimiento, y NVLink-C2C acelera la transferencia de los datos preprocesados a la GPU Hopper 7 veces en comparación con PCIe, lo que resulta en una aceleración 30 veces mayor en el proceso de generación de incorporación.

Red neuronal gráfica basada en mediciones completas de modelos GraphSAGE que comparan PCIe H100 con GH200.

Red neuronal gráfica

Las redes neuronales de gráficos (GNN) se utilizan en una amplia gama de aplicaciones, como el análisis de redes sociales, el descubrimiento de fármacos, la detección de fraudes y la química molecular. GH200 aprovecha hasta 624 GB de memoria rápida combinada de CPU y GPU, 4 petaFLOPS de GPU H200 y NVLink-C2C de 900 GB/s para acelerar el entrenamiento de GNN hasta en 8 veces en comparación con la GPU H100 PCIe.

Explora los laboratorios de LaunchPad con GH200

Acelera la computación y la IA con Grace Hopper

En esta demostración, experimentará la integración perfecta del superchip NVIDIA GH200 Grace Hopper con las pilas de software de NVIDIA. Incluye demostraciones interactivas y aplicaciones del mundo real y estudios de caso, incluyendo LLM.

Explora el diseño de referencia de Grace Hopper para cargas de trabajo modernas del centros de datos

NVIDIA MGX con GH200 para entrenamiento de IA, inferencia, 5G y HPC

NVIDIA MGX™ es un diseño de referencia modular que puede acelerar diversas cargas de trabajo empresariales. Al integrar las capacidades avanzadas del Superchip GH200 con las DPU NVIDIA BlueField®-3, la entrada/salida (E/S) definida por OEM y NVLink de cuarta generación, MGX ofrece soluciones personalizadas para los centros de datos modernos.

NVIDIA proporciona soporte en profundidad para NVIDIA Grace con guías de ajuste de rendimiento, herramientas para desarrolladores y bibliotecas.