La Prima GPU per Data Center con Supercomputing IA al Mondo
Today's data centers rely on many interconnected commodity compute nodes, which limits high performance computing (HPC) and hyperscale workloads. NVIDIA® Tesla® P100 taps into NVIDIA Pascal™ GPU architecture to deliver a unified platform for accelerating both HPC and AI, dramatically increasing throughput while also reducing costs.
With over 600 HPC applications accelerated—including 15 out of the top 15—and all deep learning frameworks, Tesla P100 with NVIDIA NVLink delivers up to a 50X performance boost.
Tesla P100 è stata totalmente ripensata, dal silicio sino al software, oltre che arricchita da innovazioni a ogni livello. Ogni tecnologia rivoluzionaria offre un netto balzo in avanti delle prestazioni e consente di creare i nodi di calcolo più rapidi al mondo.
L'architettura NVIDIA Pascal™ permette a Tesla P100 di fornire prestazioni superiori per carichi di lavoro HPC e hyperscale. Gli oltre 21 TeraFLOPS di performance FP16 rendono Pascal la scelta ottimale per esplorare le nuove possibilità del deep learning e delle sue applicazioni. L'architettura Pascal garantisce anche oltre 5 e 10 TeraFLOPS di prestazioni rispettivamente in precisione singola e doppia con carichi di lavoro HPC.
Tesla P100 crea una stretta integrazione di calcolo e dati nello stesso pacchetto aggiungendo CoWoS® (Chip-on-Wafer-on-Substrate) e la tecnologia HBM2. Questa soluzione permette di offrire il triplo delle prestazioni di memoria rispetto all'architettura NVIDIA Maxwell™. Per le applicazioni più impegnative in termini di dati si tratta di un vero e proprio ricambio generazionale, soprattutto per quanto riguarda il tempo necessario per arrivare alle soluzioni.
Le prestazioni sono spesso limitate dall'interconnessione. La rivoluzionaria interconnessione bidirezionale ad alta velocità NVIDIA NVLink™ è stata ideata per consentire lo scaling delle applicazioni su più GPU e, quindi, garantisce prestazioni 5 volte superiori rispetto alle attuali tecnologie di eccellenza.
Nota: questa tecnologia non è disponibile con Tesla P100 per PCIe.
Il Page Migration Engine consente agli sviluppatori di focalizzarsi sulla messa a punto delle prestazioni di calcolo, sacrificando molto meno tempo per la gestione del movimento dei dati. Ora è possibile arrivare a uno scaling delle applicazioni oltre le dimensioni della memoria fisica delle GPU sino a quantità virtualmente illimitate di memoria.
Tesla P100 con tecnologia NVIDIA NVLink permette a nodi rapidissimi di accelerare nettamente il tempo necessario per arrivare alle soluzioni nelle applicazioni su larga scala. Un nodo server con NVLink può interconnettersi con un massimo di otto Tesla P100 con una banda passante 5 volte superiore alle soluzioni PCIe. Questa soluzione è progettata per aiutare a risolvere le sfide più importanti al mondo, i problemi di HPC e apprendimento approfondito che richiedono una potenza di calcolo quasi infinita.
Tesla P100 with NVIDIA NVLink technology enables lightning-fast nodes to substantially accelerate time to solution for strong-scale applications. A server node with NVLink can interconnect up to eight Tesla P100s at 5X the bandwidth of PCIe. It's designed to help solve the world's most important challenges that have infinite compute needs in HPC and deep learning.
Tesla P100 per PCIe permette ai data center di HPC a carichi misti di migliorare nettamente il throughput con un concomitante risparmio di denaro. Ad esempio, un singolo nodo accelerato da GPU e basato su quattro Tesla P100 interconnesse con PCIe sostituisce sino a 32 nodi basati su CPU per svariate applicazioni. La possibilità di portare a termine i job con un numero minore di nodi più potenti significa che i clienti potranno risparmiare sino al 70% dei costi di gestione complessivi dei data center.
Tesla P100 for PCIe enables mixed-workload HPC data centers to realise a dramatic jump in throughput while saving money. For example, a single GPU-accelerated node powered by four Tesla P100s interconnected with PCIe replaces up to 32 commodity CPU nodes for a variety of applications. Completing all the jobs with far fewer powerful nodes means that customers can save up to 70 percent in overall data center costs.
The World's Fastest GPU Accelerators for HPC and Deep Learning.
Find an NVIDIA Accelerated Computing Partner through our NVIDIA Partner Network (NPN).