La prima GPU Tensor Core
Individuare informazioni fruibili in enormi flussi di dati significa trasformare i settori industriali, ad esempio con terapie oncologiche personalizzate, permettendo agli assistenti virtuali di conversare in modo naturale e prevedendo il prossimo grande uragano.
NVIDIA® Tesla® V100 Tensor Core è la GPU per data center più avanzata mai costruita per accelerare IA, HPC, scienza dei dati e grafica. È basta sull'architettura NVIDIA Volta, disponibile in configurazioni da 16 e 32GB e offre le prestazioni di 100 CPU in una sola GPU. Premette a scienziati, ricercatori e ingegneri di affrontare problemi una volta considerati irrisolvibili.
Esegui carichi di lavoro IA e HPC in un ambiente virtualizzato per una maggiore sicurezza e una migliore gestibilità con il software NVIDIA Virtual Compute Server (vCS).
Dal riconoscimento vocale al training di assistenti virtuali personali, dal rilevamento di corsie stradali alle auto a guida autonoma, gli scienziati stanno affrontando sfide sempre più complesse nell'ambito dell'intelligenza artificiale. Risolvere problematiche di questo tipo richiede il training di modelli di deep learning estremamente complessi in tempi ragionevoli.
con 43 mila core Tensor, Tesla V100 è la prima GPU al mondo a superare il record di 100 teraops (TOPS) di prestazioni in deep learning. Il sistema NVIDIA NVLink™ di seconda generazione collega più GPU V100 a fino a 160 GB/s per creare i server di elaborazione più potenti del mondo. I modelli AI che richiederebbero settimane di risorse di elaborazione sui sistemi precedenti possono ora essere addestrati in pochi giorni. Con questa riduzione sostanziale dei tempi di training, tutta una serie di problemi sarà ora risolvibile grazie all'intelligenza artificiale.
Per entrare in possesso di informazioni, servizi e prodotti pertinenti, le compagnie iperscalabili hanno iniziato a integrare algoritmi di intelligenza artificiale. Tuttavia, tenere il passo con la domanda è un problema di non facile soluzione. Ad esempio, le principali aziende iperscalabili del mondo, hanno stimato che se ogni utente utilizzasse il loro servizio di riconoscimento vocale per soli tre minuti al giorno, servirebbe il doppio della capacità del data center.
Tesla V100 per l'iperscalabilità è stata progettata per offrire prestazioni massime in rack server iperscalabili esistenti. Con l'intelligenza artificiale alla base, un rack server da 13 kW con GPU Tesla V100 è in grado di fornire le stesse prestazioni di inferenza per il deep learning di 30 rack di server CPU. Questo enorme passo avanti in termini di produttività ed efficienza renderà ancora più fruibili i servizi AI scale-out.
L'HPC è un pilastro fondamentale della scienza moderna. Dalle previsioni meteo fino al rilevamento di sostanze stupefacenti e alla ricerca di nuove fonti energetiche, i ricercatori utilizzano enormi sistemi di elaborazione per simulare e predire il nostro mondo. L'AI espande l'HPC tradizionale permettendo ai ricercatori di analizzare enormi volumi di dati ottenendo informazioni utili dove la sola simulazione non basterebbe per produrre simulazioni realistiche.
Tesla V100 è stata progettata per la convergenza di HPC e AI. Offre una piattaforma per sistemi HPC che permette di eccellere sia nelle scienze computazionali per la simulazione scientifica sia nelle scienze dei dati per la ricerca di informazioni fruibili. Abbinando i core CUDA e i core Tensor all'interno di un'architettura unificata, un solo server con GPU Tesla V100 può sostituire centinaia di server CPU per carichi di lavoro HPC tradizionali e AI. Ogni ricercatore e ingegnere può finalmente permettersi un supercomputer AI per affrontare il lavoro più esigente.
prestazioni all'avanguardia per il deep learning
massima versatilità per tutti i carichi di lavoro, realizzata per HPC
PRECISIONE DOPPIA 7,8 TeraFLOPS
PRECISIONE SINGOLA 15,7 TeraFLOPS
Deep Learning 125 TeraFLOPS
PRECISIONE DOPPIA 7 TeraFLOPS
PRECISIONE SINGOLA 14 TeraFLOPS
Deep Learning 112 TeraFLOPS
PRECISIONE DOPPIA 8.2 TeraFLOPS
PRECISIONE SINGOLA 16.4 TeraFLOPS
Deep Learning 130 TeraFLOPS
NVLink 300 GB/s
PCIe 32 GB/s
CAPACITÀ HBM2 32/16 GB
LARGHEZZA DI BANDA 900 GB/s
CAPACITÀ 32 GB HBM2
LARGHEZZA DI BANDA 1134 GB/s
300 WATT
250 WATT
Gli acceleratori GPU più veloci del mondo per HPC e deep learning.
Trova un NVIDIA Accelerated Computing Partner nella nostra NVIDIA Partner Network (NPN).