FINFET DI 16 NANOMETRI PER UN'EFFICIENZA ENERGETICA SENZA PRECEDENTI Con 150 miliardi di transistor assemblati su una sbalorditiva tecnologia di fabbricazione FinFET a 16 nanometri, la GPU Pascal è il più grande chip FinFET mai creato. È progettata per garantire un livello di prestazioni ed efficienza energetica ineguagliabile per carichi di lavoro con requisiti di calcolo pressoché infiniti.
FINFET DI 16 NANOMETRI PER UN'EFFICIENZA ENERGETICA SENZA PRECEDENTI Con 150 miliardi di transistor assemblati su una sbalorditiva tecnologia di fabbricazione FinFET a 16 nanometri, la GPU Pascal è il più grande chip FinFET mai creato. È progettata per garantire un livello di prestazioni ed efficienza energetica ineguagliabile per carichi di lavoro con requisiti di calcolo pressoché infiniti.
UN GRANDE PASSO AVANTI NELLE PRESTAZIONI Pascal attualmente è la più potente architettura di elaborazione mai inserita all'interno di una GPU. Trasforma un computer in un supercomputer capace di prestazioni senza precedenti, tra cui oltre 5 TeraFLOPS in doppia precisione per carichi di lavoro HPC. Nell'ambito del deep learning, un sistema basato su Pascal offre prestazioni 12 volte superiori nel training delle reti neurali, riducendo i tempi di training da settimane a poche ore; inoltre garantisce una produttività di inferenza 7 volte superiore rispetto alle architetture GPU di attuale generazione.
UN GRANDE PASSO AVANTI NELLE PRESTAZIONI Pascal attualmente è la più potente architettura di elaborazione mai inserita all'interno di una GPU. Trasforma un computer in un supercomputer capace di prestazioni senza precedenti, tra cui oltre 5 TeraFLOPS in doppia precisione per carichi di lavoro HPC. Nell'ambito del deep learning, un sistema basato su Pascal offre prestazioni 12 volte superiori nel training delle reti neurali, riducendo i tempi di training da settimane a poche ore; inoltre garantisce una produttività di inferenza 7 volte superiore rispetto alle architetture GPU di attuale generazione.
NUOVI ALGORITMI DI INTELLIGENZA ARTIFICIALE (IA) Il nuovo linguaggio di istruzioni in mezza precisione con floating point a 16 bit garantisce prestazioni di training senza precedenti a 21 TeraFLOPS. Con 47 TOPS (tera-operazioni al secondo) di prestazioni, le nuove istruzioni Pascal in numeri interi a 8 bit consentono agli algoritmi IA di garantire una risposta in tempo reale per l'inferenza in deep learning.
NUOVI ALGORITMI DI INTELLIGENZA ARTIFICIALE (IA) Il nuovo linguaggio di istruzioni in mezza precisione con floating point a 16 bit garantisce prestazioni di training senza precedenti a 21 TeraFLOPS. Con 47 TOPS (tera-operazioni al secondo) di prestazioni, le nuove istruzioni Pascal in numeri interi a 8 bit consentono agli algoritmi IA di garantire una risposta in tempo reale per l'inferenza in deep learning.