NVIDIA HGX-2

Basata su GPU NVIDIA Tesla V100 e NVSwitch

La piattaforma server accelerata più potente dl mondo per deep learning, machine learning e HPC

Siamo all'alba di una nuova di intelligence, dove IA e HPC stanno rivoluzionando il mondo. Dai veicoli autonomi alle simulazioni climatiche globali, nuove sfide emergono e richiedono enormi risorse di elaborazione per essere risolte. NVIDIA HGX-2 è progettata per il multi-precisione,che abbina la potenza del computing scientifico ad alta precisione con la velocità del computing IA a precisione più bassa,per fornire una singola piattaforma flessibile e potenteper risolvere sfide importanti.

Attiva la GPU più potente del mondo

Accelerata da 16 GPU NVIDIA® Tesla® V100 e NVIDIA NVSwitch, la piattaforma HGX-2 offre una potenza di elaborazione senza precedenti, larghezza di banda e topologia di memoria avanzata per addestrare modelli, analizzare set di dati e risolvere simulazioni in modo più veloce ed efficiente. Le 16 GPU Tesla V100 funzionano come acceleratore singolo e unificato a 2 petaFLOP con mezzo TB della memoria totale della GPU, consentendo la gestione dei carichi di lavoro più intensivi in termini di capacità di elaborazione e di attivare "la GPU più grande del mondo".

Attiva la

AI Training: HGX-2 Replaces 300 CPU-Only Server Nodes

Workload: ResNet50, 90 epochs to solution  | CPU Server: Dual-Socket Intel Xeon Gold 6140
|  Dataset: ImageNet2012  |

IA di nuova generazione per prestazioni più veloci

I modelli IA diventano sempre più complessi e richiedono ampia memoria, più GPU e una connessione estremamente veloce affinché le GPU possano funzionare. Con NVSwitch che collega tutte e GPU e la memoria unificata, HGX-2 fornisce la potenza per gestire questi nuovi modelli per training più veloce con IA avanzata. Una singola HGX-2 sostituisce 300 server con CPU, per un risparmio significativo di costi, spazio ed energia nel data center.

Machine Learning: HGX-2 544X Speedup Compared to CPU-Only Server Nodes

GPU Measurements Completed on DGX-2 | CPU: 20 CPU cluster- comparison is prorated to 1 CPU (61 GB of memory, 8 vCPUs, 64-bit platform), Apache Spark | US Mortgage Data Fannie Mae and Freddie Mac 2006-2017 | 146M mortgages | Benchmark 200GB CSV dataset | Data preparation includes joins, variable transformations

Machine learning con IA di nuova generazione per prestazioni più veloci

I modelli di machine learning basati su IA richiedono caricamento, conversione ed elaborazione di set di dati molto voluminosi per ricavare informazioni fruibili. Con 0,5 TB di memoria unificata accessibili a una banda di 16 TB/s e le comunicazioni tramite GPU con NVSwitch, HGX-2 offre la potenza per caricare ed eseguire calcoli su enormi set di dati per ricavare informazioni fruibili rapidamente. Con il software di machine learning open source, RAPIDS, una singola HGX-2 sostituisce 544 server basati su CPU, generando significativi risparmi in termini di costi e spazio.

HPC: HGX-2 Replaces up to 156 CPU-Only Server Nodes

Application(Dataset): SPECFEM3D(four material simple model), MILC(APEX Medium), and Chroma(szscl21_24_128) |
CPU Server: Dual-Socket Intel Xeon Gold 6140

Il super nodo HPC dalle più alte prestazioni

Le applicazioni HPC richiedono solidi nodi server con potenza di elaborazione adatta per eseguire un elevato numero di calcoli al secondo. L'aumento della densità di ciascun nodo riduce significativamente il numero di server necessari, con enormi risparmi di costi, alimentazione e spazio nel data center. Per le simulazioni HPC, la moltiplicazione di matrici ad alta dimensione richiede un processore che recuperi i dati dai sistemi connessi per facilitare il calcolo, il che rende la connessione delle GPU tramite NVSwitch l'opzione ideale. Un singolo server HGX-2 sostituisce 60 server con sola CPU.

NVSwitch per elaborazione alla massima larghezza di banda

NVSwitch permette a ciascuna GPU di comunicare con le altre GPU alla massima larghezza di banda di 2,4 TB/sec per risolvere i più importanti problemi IA e HPC. Ogni GPU ha accesso completo a 0,5 TB di memoria HBM2 aggregata per gestire i data set più intensivi. Abilitando un nodo server unificato, NVSwitch accelera drasticamente le applicazioni IA e HPC più complesse.

NVSwitch per elaborazione alla massima larghezza di banda

Specifiche

HGX-1 HGX-2
Prestazioni 1 petaFLOP per operazioni Tensor
125 teraFLOPS inprecisione singola
62 teraFLOPS in doppia precisione
2 petaFLOP per operazioni Tensor
250 teraFLOPS inprecisione singola
125 teraFLOPS in doppia precisione
GPU 8 NVIDIA Tesla V100 16 NVIDIA Tesla V100
Memoria della GPU 256GB totali
Larghezza di banda: 7,2 TB/s
512GB totali
Larghezza di banda: 16 TB/s
NVIDIA CUDA® Core 40,960 81,920
NVIDIA Tensor Cores 5,120 10,240
Canale di comunicazione Cube mesh ibrido basato su NVLink 300 GB/s di banda bi-sezione NVSwitch basato su NVLink 2.4 TB/s di banda bi-sezione

Architettura di riferimento HGX-1

Basata su GPU NVIDIA Tesla e NVLink

NVIDIA HGX-1 è un'architettura di riferimento con cui viene standardizzato il design dei data center, accelerando l'IA nel cloud. Basata su otto schede Tesla SXM2 V100, con la topologia di tipo cube mesh ibrido per la scalabilità, 1 petaFLOP di potenza di elaborazione e il design modulare, funziona perfettamente in data center iperscalabili e fornisce un percorso semplice e veloce verso l'IA.

Potenziare l'ecosistema del data center

NVIDIA collabora con i produttori leader mondiali per accelerare il progresso del cloud computing basato su IA. Per la GPU HGX-2, NVIDIA fornisce schede di base, linee guida per il design e accesso anticipato alle tecnologie di monitoraggio per consentire ai partner di integrare la soluzione nei server e distribuirla in modo scalabile nei data center.

Potenziare l'ecosistema del data center

VEDI LA LISTA COMPLETA DI SERVER  NVIDIA TESLA QUALIFICATI.

Iscriviti per ricevere le news sul data center.

Scopri di più su High Performance Computing, deep learning e intelligenza artificiale.