GPU NVIDIA A100 Tensor Core

Accelerazioni senza precedenti in ogni ordine di grandezza

Accelerare il lavoro più importante del
nostro tempo

The NVIDIA A100 Tensor Core GPU delivers unprecedented acceleration at every scale for AI, data analytics, and high-performance computing (HPC) to tackle the world’s toughest computing challenges. As the engine of the NVIDIA data center platform, A100 can efficiently scale to thousands of GPUs or, with NVIDIA Multi-Instance GPU (MIG) technology, be partitioned into seven GPU instances to accelerate workloads of all sizes. And third-generation Tensor Cores accelerate every precision for diverse workloads, speeding time to insight and time to market.

La piattaforma end-to-end per data center IA e HPC più potente

La A100 fa parte della soluzione per data center NVIDIA completa che integra strumenti hardware, di rete, software, librerie, modelli e applicazioni IA ottimizzati dall'NGC. Come piattaforma IA e HPC completa più potente per data center, consente ai ricercatori di fornire risultati in tempo reale e distribuire soluzioni nell'ambiente di produzione in modo scalabile.

La creazione di Ampere - Video

Training su deep learning

Training su deep learning

I modelli IA diventano sempre più complessi nel tentativo di affrontare nuove sfide come la precisione dell'IA conversazionale e i sistemi di suggerimenti avanzati. Il training richiede un'enorme potenza di elaborazione e massima scalabilità.

I Tensor Core di terza generazione nella GPU NVIDIA A100 con precisione Tensor Float (TF32) offrono prestazioni 10 volte superiori rispetto alla generazione precedente senza alcuna alterazione del codice e un ulteriore incremento pari a 2 volte con precisione mista automatica. Insieme a NVIDIA® NVLink® di terza generazione, NVIDIA NVSwitch, PCI Gen4, Mellanox InfiniBand e il software SDK NVIDIA Magnum IO™, è possibile scalare fino a migliaia di GPU A100. Questo significa che i modelli IA voluminosi come BERT possono essere addestrati in soli xx minuti su un cluster di xx A100, offrendo prestazioni e scalabilità senza precedenti.

La leadership di NVIDIA nel training è stata dimostrata nello standard MLPerf 0.6, il primo benchmark a livello di settore per il training con IA.

Inferenza su deep learning

La A100 introduce nuove straordinarie funzionalità per ottimizzare i carichi di lavoro di inferenza. Aggiunge una versatilità senza precedenti accelerando tutta la gamma di precisioni, dalla FP32, FP16 e INT8 e fino alla INT4. La tecnologia Multi-Istance GPU (MIG) consente a più reti di operare simultaneamente su una singola GPU A100 per un utilizzo ottimale delle risorse di elaborazione. Inoltre, il supporto per la densità strutturale offre prestazioni fino a 2 volte superiori oltre ad altri guadagni in termini di prestazioni in inferenza della A100.

NVIDIA offre già prestazioni in inferenza leader di settore, come dimostrato in un'analisi approfondita del MLPerf Inference 0.5, il primo benchmark a livello di settore per l'inferenza. La A100 offre prestazioni 10 volte superiori per espandere ulteriormente questa leadership.

Inferenza su deep learning
Calcolo ad alte prestazioni

Calcolo ad alte prestazioni

Per sfruttare le scoperte di nuova generazione, gli scienziati usano simulazioni per comprendere al meglio il comportamento delle molecole e trovare nuovi farmaci, analizzano dati fisici per individuare potenziali nuove fondi di energia e dati atmosferici per prevedere e prepararsi a eventi metereologici estremi.

A100 introduce Tensor Core a doppia precisione, offrendo la principale innovazione dall'introduzione del calcolo con GPU a precisione doppia per l'HPC. Questo permette ai ricercatori di ridurre i tempi di simulazione pari a circa 10 ore in precisione doppia su GPU NVIDIA V100 Tensor Core a sole poche ore su A100. Anche le applicazioni HPC possono sfruttare i Tensor Core dell'A100 per arrivare a una produttività 10 volte superiore per le operazioni di moltiplicazione a matrice in precisione singola.

Analisi di dati ad alte prestazioni

I clienti devono poter analizzare, visualizzare e convertire enormi set di dati in informazioni. Tuttavia, le soluzioni scale-out troppo spesso si trasformano in una palude poiché tali set di dati sono disseminati su più server.

I server accelerati con A100 offrono la necessaria potenza di elaborazione, oltre a 1,6 terabyte al secondo (TB/sec) di banda di memoria e scalabilità con NVLink di terza generazione più NVSwitch, per affrontare carichi di lavoro enormi. Insieme a Mellanox InfiniBand, l'SDK Magnum IO, Spark 3.0 accelerato da GPU e RAPIDS, una suite software per analisi dei dati accelerate da GPU, la piattaforma per data center di NVIDIA è in grado di accelerare questi enormi carichi di lavoro a livelli mai visti prima, in termini di prestazioni ed efficienza.

Analisi di dati ad alte prestazioni
Utilizzo a livello di impresa

Utilizzo a livello di impresa

La A100 con MIGMulti-Instance GPU (MIG) massimizza l'infrastruttura GPU accelerata come mai rima d'ora. MIG consente di creare partizioni sicure della GPU A100 raggiungendo fino a sette istanze separate e garantendo a più utenti la possibilità di ottenere l'accelerazione con GPU per applicazioni e progetti di sviluppo. Inoltre, gli amministratori del data center possono ottenere i vantaggi operativi e gestionali della virtualizzazione server basata su hypervisor sulle istanze MIG con NVIDIA Virtual Compute Server (vComputeServer). MIG consente ai gestori di infrastruttura di eseguire il provisioning di risorse della GPU con maggiore granularità per fornire agli sviluppatori la giusta quantità di capacità di calcolo e assicurare un uso ottimale di tutte le risorse della GPU.

Specifiche tecniche

  A100 per NVLink
Picco FP64 9,7 TF
Picco Tensor Core FP64 19,5 TF
Picco FP32 19,5 TF
Picco Tensor Core TF32 156 TF | 312 TF*
Picco Tensor Core BFLOAT16 312 TF | 624 TF*
Picco FP16 Tensor Core 312 TF | 624 TF*
Picco Tensor Core INT8 624 TOPS | 1,248 TOPS*
Picco Tensor Core INT4 1,248 TOPS | 2,496 TOPS*
Memoria della GPU 40 GB
Banda di memoria GPU 1,555 GB/s
Interconnessione NVIDIA NVLink 600 GB/s
PCIe Gen4 64 GB/s
Multi-Instance GPU 3MIG @ 10GB
5MIG @ 8GB
7MIG @ 5GB
Fattore di forma 4/8 SXM on NVIDIA HGX A100
Massima potenza TDP 400W
 

Dentro l'architettura NVIDIA Ampere

Partecipa a questo webinar per scoprire le novità dell'architettura NVIDIA Ampere e la sua implementazione nella GPU NVIDIA A100.