GPU-READY DATA CENTER

Eseguire carichi di lavoro di deep learning nel data center IA moderno

Considerazioni per la scalabilità dei data center ottimizzati per GPU - Panoramica tecnica

I data center enterprise e hyperscale vengono progressivamente realizzati per gestire carichi di lavoro dedicati all-IA e alle reti neurali profonde gestendo un enorme quantità di dati. Il livello di elaborazione necessario è molto impegnativo e può trarre enormi vantaggi dalla potenza delle GPU. La GPU funzionano in parallelo, ottimizzate per accessi veloci alla memoria e progettate per effettuare moltiplicazione di matrici di classe IA e data analytics necessarie per svolgere velocemente l-analisi dei dati. Ma i vantaggi non si fermano qui. I data center che supportano i server GPU offrono più efficienza e prestazioni, riducono i consumi energetici per i carichi di lavoro avanzati e richiedono meno spazio fisico.

In questa panoramica tecnica, scoprirai le buone prassi per ottimizzare il data center con l'uso di GPU, con particolare attenzione ai requisiti di alimentazione, raffreddamento e architetturali, tra cui layout dei rack, architettura di rete e dei sistemi e archiviazione. Esplorando i carichi di lavoro a calcolo intenso sui sistemi NVIDIA® DGX-1™ per il deep learning e acceleratori GPU NVIDIA® Tesla® V100 GPU, questo documento ti guiderà attraverso le fasi per ridurre al minimoe le spese. E con consigli che assicurano che il tuo data center sia ottimizzato per le GPU NVIDIA, scoprirai come sfruttare la scalabilità per eseguire i carichi di lavoro avanzati di oggi.

gpu-ready-data-center-tech-overview-625-u@2x

ISCRIVITI PER SCARICARE

Scarica la nostra panoramica su nuove regole e best practice per l'esecuzione di carichi di lavoro di deep learning nel moderno centro dati AI.