NVIDIA HGX A100

La plataforma de IA de supercomputación de extremo a extremo más potente

Diseñada específicamente para la convergencia de simulación, análisis de datos e IA

Los conjuntos de datos masivos, los grandes tamaños de modelos y las simulaciones complejas requieren múltiples GPU con interconexiones extremadamente rápidas. La plataforma NVIDIA HGX™ reúne toda la potencia de las GPU NVIDIA, NVIDIA® NVLink®, NVIDIA Mellanox® InfiniBand® de conexión de red y una pila de software de NVIDIA IA y HPC totalmente optimizada desde NGC™ para ofrecer el máximo rendimiento de las aplicaciones. Gracias a su rendimiento y flexibilidad de extremo a extremo, NVIDIA HGX permite a los investigadores y científicos combinar simulaciones, análisis de datos e IA para avanzar en el progreso científico.

Plataforma de computación acelerada sin igual

NVIDIA HGX A100 combina varias GPU NVIDIA A100 Tensor Core con interconexiones de alta velocidad para formar los servidores más potentes del mundo. Con las GPU A100 de 80 GB, un solo HGX A100 tiene hasta 1,3 terabytes (TB) de memoria GPU y más de 2 terabytes por segundo (TB/s) de ancho de banda de memoria, lo que ofrece una aceleración sin precedentes.

HGX A100 ofrece una velocidad de IA hasta 20 veces mayor en comparación con las generaciones anteriores con tensor Float 32 (TF32) y una velocidad de HPC 2,5 veces mayor con FP64. HGX A100, completamente probada y fácil de implementar, se integra en los servidores asociados para proporcionar un rendimiento garantizado. NVIDIA HGX A100 con 16 GPU ofrece 10 petaFLOPS escalonados, por lo que se trata de la plataforma de servidor de escalado vertical acelerada más potente del mundo para IA y HPC.

NVIDIA HGX A100 (con 8 GPU A100)

NVIDIA HGX A100 (con 8 GPU A100)

NVIDIA HGX A100 (con 4 GPU A100)

NVIDIA HGX A100 (con 4 GPU A100)

Rendimiento del aprendizaje profundo

Rendimiento del aprendizaje automático

Hasta 83 veces más rápida que las CPU, el doble de rápida que A100 de 40 GB en referencias de análisis de macrodatos

Hasta 83 veces más rápida que las CPU, el doble de rápida que A100 de 40 GB en referencias de análisis de macrodatos

Los modelos de aprendizaje automático requieren la carga, transformación y procesamiento de conjuntos de datos extremadamente grandes poder extraer conclusiones importantes. Con hasta 1,3 TB de memoria unificada y las comunicaciones de GPU entre todos los componentes con NVSwitch, HGX A100 con tecnología de GPU A100 de 80 GB cuenta con la capacidad necesaria para cargar y realizar cálculos en enormes conjuntos de datos con el fin de obtener conclusiones prácticas rápidamente

En una referencia de análisis de macrodatos, A100 de 80 GB ofreció información con un rendimiento 83 veces mayor que las CPU y el doble de rendimiento que A100 de 40 GB, lo que lo convierte en una solución idónea para cargas de trabajo emergentes con tamaños de conjuntos de datos cada vez mayores.

Rendimiento de HPC

Las aplicaciones HPC deben realizar una cantidad enorme de cálculos por segundo. Aumentar la densidad de cálculo de cada nodo de servidor reduce drásticamente la cantidad de servidores necesarios, lo que implica un gran ahorro de dinero, energía y espacio en el centro de datos. Para las simulaciones, la multiplicación de matrices de muchas dimensiones necesita un procesador que obtenga datos de varios procesadores próximos para los cálculos, lo que hace ideal la conexión de GPU de NVIDIA NVLink. Las aplicaciones HPC también pueden aprovechar los A100 de TF32 para lograr hasta 11 veces más rendimiento para operaciones de multiplicación de matrices densas de precisión sencilla.

Una HGX A100 con tecnología de GPU A100 de 80 GB ofrece el doble de aumento del rendimiento con respecto a las GPU A100 de 40 GB de Quantum Espresso, una simulación de materiales, lo que mejora el tiempo de obtención de información.

Rendimiento de HPC 11 veces mayor en cuatro años

Las mejores aplicaciones de HPC

Rendimiento de HPC 11 veces mayor  en cuatro años

Rendimiento hasta 1,8 veces mayor para aplicaciones HPC

Quantum Espresso​

Rendimiento hasta 1,8 veces mayor  para aplicaciones HPC

La plataforma de centro de datos de IA y HPC integral más potente

La completa pila de soluciones del centro de datos de NVIDIA incorpora elementos esenciales en hardware, redes, software, bibliotecas y modelos y aplicaciones de IA optimizados en NGC. Representing the most powerful end-to-end AI and HPC platform for data centers, it allows researchers to deliver real-world results and deploy solutions into soluciones en producción a escala.

Especificaciones de HGX A100

HGX A100 está disponible en placas base individuales con cuatro u ocho GPU A100. La configuración de cuatro GPU está totalmente interconectada con NVLink y la configuración de ocho GPU, con NVSwitch. También se pueden combinar dos placas base NVIDIA HGX™ A100 8-GPU usando una interconexión NVSwitch para crear un potente nodo único de 16-GPU.

4-GPU 8-GPU 16-GPU
GPUs 4x NVIDIA A100 8x NVIDIA A100 16x NVIDIA A100
Cálculo de IA/HPC FP64/TF32*/FP16*/INT8* 78TF/1.25PF*/2.5PF*/5POPS* 156TF/2.5PF*/5PF*/10POPS* 312TF/5PF*/10PF*/20POPS*
Memoria Hasta 320 GB Hasta 640 GB Hasta 1280 GB
NVIDIA NVLink 3ª generación 3ª generación 3ª generación
NVIDIA NVSwitch N/A 2ª generación 2ª generación
NVIDIA Ancho de banda de GPU a GPU de NVSwitch N/A 600 GB/s 600 GB/s
Ancho de banda agregado total 2,4 TB/s 4,8 TB/s 9,6 TB/s

Arquitecturas de referencia HGX-1 y HGX-2

Impulsado por GPU NVIDIA y NVLINK

NVIDIA HGX-1 y HGX-2 son arquitecturas de referencia que estandarizan el diseño de centros de datos con aceleración de IA y HPC. Construidas con placas NVIDIA SXM2 V100 y tecnologías de interconexión NVIDIA NVLink y NVSwitch, las arquitecturas de referencia HGX tienen un diseño modular que funciona perfectamente en centros de datos híbridos y a hiperescala para ofrecer hasta 2 petaFLOPS de potencia de cálculo como camino rápido y sencillo a IA y HPC.

Impulsado por GPU NVIDIA y NVLINK

Especificaciones

8-GPU
HGX-1 
16-GPU
HGX-2 
GPUs 8 NVIDIA V100 16 NVIDIA V100
AI Compute 1 petaFLOPS (FP16) 2 petaFLOPS (FP16)
Memoria 256 GB 512 GB
NVLink 2ª generación 2ª generación
NVSwitch N/A
Ancho de banda de GPU a GPU de NVSwitch N/A 300 GB/s
Ancho de banda agregado total 2,4 TB/s 4,8 TB/s

El interior de la arquitectura NVIDIA Ampere

Lee esta información técnica detallada para aprender las novedades de la arquitectura NVIDIA Ampere y su implementación en la GPU NVIDIA A100.