GPU NVIDIA V100 TENSOR CORE

La prima GPU Tensor Core

Benvenuti nell'era dell'intelligenza artificiale.

Individuare informazioni fruibili in enormi flussi di dati significa trasformare i settori industriali, ad esempio con terapie oncologiche personalizzate, permettendo agli assistenti virtuali di conversare in modo naturale e prevedendo il prossimo grande uragano. 


NVIDIA® V100 Tensor Core è la GPU per data center più avanzata mai costruita per accelerare l'IA, il calcolo ad alte prestazioni (HPC), la scienza dei dati e la grafica. È alimentata dall'architettura NVIDIA Volta, disponibile in configurazioni da 16 e 32 GB, e offre le prestazioni di fino a 32 CPU su una singola GPU. Gli esperti di dati, i ricercatori e gli ingegneri possono ora dedicare meno tempo all'ottimizzazione dell'uso della memoria e più tempo alla progettazione della prossima innovazione in IA.

Esegui carichi di lavoro IA e HPC in un ambiente virtualizzato per una maggiore sicurezza e una migliore gestibilità con il software NVIDIA Virtual Compute Server (vCS).

Training 32 volte più veloce di una CPU

Training ResNet-50, set di dati: ImageNet2012, BS=256 | Confronto con NVIDIA V100: server NVIDIA DGX-2™, 1 V100 SXM3-32GB, MXNet 1.5.1, container=19.11-py3, precisione mista, produttività: 1.525 immagini/sec | Confronto con Intel: Supermicro SYS-1029GQ-TRT, Intel Gold 6240 a 2 GHz/3.9 Hz Turbo socket singolo, Tensorflow 0.18, FP32 (unica precisione disponibile), produttività: 48 immagini/sec

Training con IA

Dal riconoscimento vocale al training di assistenti virtuali personali e delle auto a guida autonoma, gli scienziati stanno affrontando sfide sempre più complesse nell'ambito dell'intelligenza artificiale. Risolvere problematiche di questo tipo richiede il training di modelli di deep learning estremamente complessi in tempi ragionevoli.

Con 640 Tensor Core, la V100 è la prima GPU al mondo che supera la barriera dei 100 teraFLOPS (TFLOPS) di prestazioni in deep learning. La nuova generazione di NVIDIA NVLink™ collega più GPU V100 a fino a 300 GB/s per creare i server di calcolo più potenti del mondo. I modelli IA che richiederebbero settimane di risorse di calcolo sui precedenti sistemi possono ora essere addestrati in pochi giorni. Con questa sostanziale riduzione dei tempi, tanti problemi che affliggono il mondo saranno ora risolvibili grazie all'IA.

SCOPRI COME ACCELERARE I MODELLI IA CON PRECISIONE MISTRA SU TENSOR CORE

Produttività di inferenza 24 volte superiori rispetto a un server CPU

Inferenza BERT Base calibrata, set di dati: SQuADv1.1, BS=1, lunghezza sequenza=128 | Confronto con NVIDIA V100: Supermicro SYS-4029GP-TRT, 1 V100-PCIE-16GB, container pre rilascio, precisione mista, NVIDIA TensorRT™ 6.0, produttività: 557 frasi/sec | Confronto con Intel: Intel Gold 6240 a 2,6 GHz/3,9 Hz Turbo singolo socket, FP32 (unica precisione disponibile), OpenVINO MKL-DNN v0.18, produttività: 23.5 frasi/sec

Inferenza con AI

Per entrare in possesso di informazioni, servizi e prodotti pertinenti, le compagnie hyperscale hanno iniziato a integrare algoritmi di intelligenza artificiale. Tuttavia, tenere il passo con la domanda è un problema di non facile soluzione. Ad esempio, le principali aziende hyperscale del mondo, hanno stimato di recente che se ogni utente utilizzasse il loro servizio di riconoscimento vocale per soli tre minuti al giorno, servirebbe il doppio della capacità del data center. 

La V100 è progettata per fornire massime prestazioni nei server rack hyperscale esistenti. Con l'IA alla base, le GPU V100 offrono prestazioni di inferenza 47 volte superiori rispetto a un server CPU. Questo enorme passo avanti in termini di produttività ed efficienza renderà ancora più fruibili i servizi AI scale-out.

Un nodo server V100 sostituisce fino a 135 nodi server con sola CPU

Applicazione (set di dati): MILC (APEX Medium) e Chroma (szscl21_24_128) | Server CPU: Intel Xeon Platinum 8280 doppio socket (Cascade Lake)

Calcolo ad alte prestazioni (HPC)

L'HPC è un pilastro fondamentale della scienza moderna. Dalle previsioni meteo fino al rilevamento di sostanze stupefacenti e alla ricerca di nuove fonti energetiche, i ricercatori utilizzano enormi sistemi di elaborazione per simulare e predire il nostro mondo. L'IA estende l'HPC tradizionale consentendo ai ricercatori di analizzare elevati volumi di dati per approfondimenti rapidi laddove la sola simulazione non consente di prevedere completamente il mondo reale.

La V100 è progettata per la convergenza di IA e HPC. Offre una piattaforma per sistemi HPC che permette di eccellere sia nelle scienze computazionali per la simulazione scientifica sia nelle scienze dei dati per la ricerca di informazioni fruibili nei dati. Abbinando gli NVIDIA CUDA® Core e i Tensor Core in un'architettura unificata, un singolo server con GPU V100 può sostituire centinaia di server con sola CPU per carichi di lavoro tradizionali HPC e IA. Ogni ricercatore e ingegnere può finalmente permettersi un supercomputer IA per affrontare i lavori più esigenti.

GPU PER IL DATA CENTER

Tesla V100 NVLink per data center

NVIDIA V100 PER NVLINK

Prestazioni all'avanguardia per il deep learning.

Tesla V100 PCle per data center

NVIDIA V100 PER PCle

Massima versatilità per tutti i carichi di lavoro.

Specifiche NVIDIA V100

 

V100 per NVLink

V100 per PCIe

V100S per PCIe

PRESTAZIONI
con NVIDIA GPU Boost

Precisione doppia
7.8 teraFLOPS

Precisione singola
15.7 teraFLOPS

Deep learning
125 teraFLOPS

Precisione doppia
7 teraFLOPS

Precisione singola
14 teraFLOPS

Deep learning
112 teraFLOPS

Precisione doppia
8.2 teraFLOPS

Precisione singola
16.4 teraFLOPS

Deep learning
130 teraFLOPS

BANDA DI INTERCONNESSIONE
Bidirezionale

NVLink
300 GB/s

PCIe
32 GB/s

PCIe
32 GB/s

MEMORY
CoWoS Stacked HBM2

CAPACITÀ
32/16 GB HBM2

BANDA
900 GB/s

CAPACITÀ
32 GB HBM2

BANDA
1134 GB/s

ALIMENTAZIONE
Consumo massimo


300 WATT


250 WATT

Test drive gratuito

Gli acceleratori GPU più veloci del mondo per
HPC e deep learning

DOVE ACQUISTARE

Trova un NVIDIA Accelerated Computing Partner nella nostra
NVIDIA Partner Network (NPN).