Supercomputer NVIDIA HGX AI

La più potente piattaforma di supercomputing IA end-to-end

Progettata appositamente per la convergenza di simulazioni, analisi dei dati e IA

Set di dati massicci, dimensioni esplosive dei modelli e simulazioni complesse richiedono più GPU con connessioni estremamente veloci e stack software completamente accelerato. La piattaforma di supercomputing NVIDIA HGX™ AI mette insieme tutta la potenza delle GPU NVIDIA, NVIDIA® NVLink®, il networking di NVIDIA Infiniband e uno stack software NVIDIA AI e HPC completamente ottimizzato disponibile dal catalogo NVIDIA NGC™ per garantire le massime prestazioni applicative. Con le sue prestazioni e la sua flessibilità end-to-end, NVIDIA HGX permette a ricercatori e scienziati di combinare simulazioni, analisi dei dati e IA guidare il progresso nella scienza.

Piattaforma completa di computing accelerato senza pari

NVIDIA HGX combina GPU NVIDIA A100 Tensor Core con interconnessioni ad alta velocità per creare i server più potenti al mondo. Con 16 GPU A100, HGX arriva a 1,3 terabyte (TB) di memoria GPU e oltre 2 terabyte al secondo (TB/sec) di banda di memoria, per un'accelerazione senza precedenti.

Rispetto alla precedenti generazioni, HGX offre un'accelerazione IA fino a 20 volte superiore con Tensor Float 32 (TF32) e una velocità di 2,5 superiore in HPC con FP64. NVIDIA HGX offre fino a 10 petaFLOPS, creando la piattaforma server scale-up accelerata più potente al mondo per IA e HPC.

Completamente testata e semplice da distribuire, HGX si integra nei server dei partner per fornire prestazioni garantite. La piattaforma HGX è disponibile in configurazioni da 4 GPU e 8 GPU HGX con GPU SXM e con GPU PCIe per una distribuzione modulare che garantisce le massime prestazioni di calcolo sui server mainstream.

HGX Stack

NVIDIA HGX A100 (con 8 GPU A100)

NVIDIA HGX A100 (con 8 GPU A100)

NVIDIA HGX A100 (con 4 GPU A100)

NVIDIA HGX A100 (con 4 GPU A100)

Prestazioni in deep learning

Prestazioni in machine learning

2 volte più veloce rispetto ad A100 40GB su benchmark di analisi dei big data

2X Faster than A100 40GB on Big Data Analytics Benchmark

I modelli di machine learning richiedono caricamento, conversione ed elaborazione di set di dati molto voluminosi per ricavare informazioni essenziali. Con fino a 1,3 TB di memoria unificata e le comunicazioni tramite GPU con NVSwitch, HGX basata su GPU A100 80GB offre la capacità di caricare ed eseguire calcoli su enormi set di dati per ricavare informazioni fruibili rapidamente.

Su un benchmark di analisi dei big data, la A100 80GB ha fornito informazioni con un throughput 2 volte superiore rispetto alla A100 40GB, il che la rende ideale per i carichi di lavoro emergenti con dimensioni di set di dati in esplosione

Prestazioni in HPC

Le applicazioni HPC devono eseguire un'enorme quantità di calcoli al secondo. L'aumento della densità di ciascun nodo server riduce significativamente il numero di server necessari, con enormi risparmi di costi, alimentazione e spazio nel data center. Per le simulazioni, la moltiplicazione di matrici ad alta dimensione richiede un processore che recuperi i dati dai sistemi connessi per il calcolo, il che rende la connessione delle GPU tramite NVIDIA NVLink l'opzione ideale. Le applicazioni HPC possono inoltre sfruttare la precisione TF32 della A100 per ottenere un throughput fino a 11 volte superiore in quattro anni per operazioni di moltiplicazione a matrici intense a precisione singola.

Un sistema HGX A100 basato su GPU A100 80GB garantisce un throughput 2 volte superiore rispetto alle GPU A100 40GB su Quantum Espresso, una simulazione di materiali, aumentando i tempi di recupero delle informazioni.

Prestazioni HPC 11 volte superiori in quattro anni

Principali applicazioni HPC

Prestazioni HPC 11 volte superiori  in quattro anni

Prestazioni fino a 1,8 volte superiori per applicazioni HPC

Quantum Espresso​

Prestazioni fino a 1,8 volte superiori  per applicazioni HPC

Specifiche di HGX A100

NVIDIA HGX è disponibile in schede di base singole con quattro o otto GPU A100, ciascuna con 40 GB o 80 GB di memoria GPU. La configurazione a 4 GPU è completamente interconnessa con NVLink® e la configurazione a 8 GPU è interconnessa con NVSwitch. Le schede base del server NVIDIA HGX A100 a 8 GPU possono essere combinate utilizzando un'interconnessione NVSwitch per creare un potente nodo singolo a 16 GPU.

HGX è disponibile anche in fattore di forma PCIe per una semplice distribuzione di tipo modulare, che offre le massime prestazioni di calcolo su server mainstream, rispettivamente con 40 GB o 80 GB di memoria della GPU.

Questa potente combinazione di hardware e software pone le basi per la piattaforma di supercomputing IA definitiva.

  A100 PCIe 4 GPU 8 GPU 16 GPU
GPU 1x NVIDIA A100 PCIe HGX A100 4-GPU HGX A100 8-GPU 2x HGX A100 8-GPU
Fattore di forma PCIe 4x NVIDIA A100 SXM 8x NVIDIA A100 SXM 16x NVIDIA A100 SXM
HPC e calcolo IA (FP64/TF32*/FP16*/INT8*) 19.5TF/312TF*/624TF*/1.2POPS* 78TF/1.25PF*/2.5PF*/5POPS* 156TF/2.5PF*/5PF*/10POPS* 312TF/5PF*/10PF*/20POPS*
Memoria 40 o 80 GB per GPU Fino a 320 GB Fino a 640 GB Fino a 1.280 GB
NVLink Terza generazione Terza generazione Terza generazione Terza generazione
NVSwitch N/D N/D Seconda generazione Seconda generazione
Banda GPU-GPU NVSwitch N/D N/D 600GB/s 600GB/s
Banda totale aggregata 600GB/s 2,4TB/s 4,8TB/s 9,6TB/s

Accelerare HGX con NVIDIA Networking

Con HGX, è anche possibile includere la rete NVIDIA per accelerare e ridurre il carico dei trasferimenti di dati, garantendo un utilizzo razionalizzato delle risorse informatiche. Gli adattatori e gli switch smart riducono la latenza, aumentano l'efficienza, migliorano la sicurezza e semplificano l'automazione nel data center per accelerare le prestazioni complessive delle applicazioni.

Il data center è la nuova unità di calcolo e la rete HPC svolge un ruolo fondamentale per la scalabilità delle prestazioni applicative. NVIDIA InfiniBand sta spianando la strada con il networking software-defined, l'accelerazione del calcolo in rete, l'accesso diretto alla memoria remota (RDMA) e con velocità e feed più rapidi.

Architetture di riferimento per HGX-1 e HGX-2

Basate su GPU NVIDIA e NVLINK

NVIDIA HGX-1 e HGX-2 sono architetture di riferimento che standardizzano la progettazione di data center che accelerano L'IA e l'HPC. Basate su schede NVIDIA SXM2 V100, con tecnologie di interconnessione NVIDIA NVLink e NVSwitch, le architetture di riferimento HGX vantano un design modulare che funziona perfettamente nei data center hyperscale e ibridi per fornire fino a 2 petaFLOPS di potenza di calcolo per un percorso semplice e rapido per IA e HPC.

Basate su GPU NVIDIA e NVLINK

Specifiche tecniche

8-GPU
HGX-1 
16-GPU
HGX-2 
GPUs 8x NVIDIA V100 16x NVIDIA V100
Elaborazione IA 1 petaFLOPS (FP16) 2 petaFLOPS (FP16)
Memoria 256 GB 512 GB
NVLink Seconda generazione Seconda generazione
NVSwitch N/A
Banda GPU-GPU NVSwitch N/A 300 GB/s
Banda totale aggregata 2,4 TB/s 4,8 TB/s

Dentro l'architettura NVIDIA Ampere

Leggi questo approfondimento tecnico per scoprire le novità dell'architettura NVIDIA Ampere e la sua implementazione nella GPU NVIDIA A100.