Workgroup Appliance per l'era dell'IA
I team di scienza dei dati sono all'avanguardia nell'ambito dell'innovazione, ma spesso vengono lasciati alla ricerca di cicli di elaborazione IA disponibili per completare i progetti. Necessitano di una risorsa dedicata che possa essere utilizzata ovunque e offrire le massime prestazioni per più utenti simultanei in qualsiasi parte del mondo. NVIDIA DGX Station.™ A100 porta il supercomputing IA nei team di scienza dei dati, offrendo la tecnologia per data center senza un data center o un'infrastruttura IT aggiuntiva. Prestazioni potenti, uno stack software completamente ottimizzato e accesso diretto a NVIDIA DGXperts assicurano tempi più rapidi per recuperare i dati.
Con DGX Station A100, le organizzazioni possono offrire a più utenti una risorsa IA centralizzata per tutti i carichi di lavoro, come training, inferenza, analisi dei dati, una vera e propria corsia di accelerazione per l'infrastruttura basata su NVIDIA DGX™, compatibile con altri sistemi certificati NVIDIA. Inoltre, con Multi-Instance GPU (MIG), è possibile allocare fino a 28 dispositivi GPU separati a singoli utenti e processi.
DGX Station A100 è un sistema IA di livello server senza i requisiti di alimentazione e raffreddamento del data center. Include quattro GPU NVIDIA A100 Tensor Core, una CPU di fascia alta di livello server, una memoria NVMe ultra veloce e bus Gen4 PCIe all'avanguardia, oltre alla gestione remota per essere amministrato come un server.
Progettato per i più agili team di scienza dei dati di oggi che lavorano negli uffici aziendali, nei laboratori, nelle strutture di ricerca o anche da casa, DGX Station A100 non richiede installazione complicata né un'infrastruttura IT significativa. Basta collegarlo a una presa a muro standard per metterlo in funzione in pochi minuti e lavorare da qualsiasi luogo.
NVIDIA DGX Station A100 è l'unico sistema per uffici al mondo con quattro GPU NVIDIA A100 completamente interconnesse e con capacità MIG, che sfruttano NVIDIA® NVLink® per l'esecuzione di processi in parallelo e il supporto di più utenti senza influire sulle prestazioni del sistema. Esegui il training di modelli di grandi dimensioni utilizzando uno stack software ottimizzato per GPU e fino a 320 gigabyte (GB) di memoria della GPU.
I set di dati di deep learning stanno diventando sempre più grandi e complessi, mentre i carichi di lavoro come l'IA conversazionale, i generatori di consigli e la computer vision diventano sempre più diffusi nei vari settori. NVIDIA DGX Station A100, dotato di uno stack software integrato, è progettato per accelerare le soluzioni con modelli IA complessi rispetto alle workstation basate su PCIe.
In genere, i carichi di lavoro di inferenza vengono distribuiti nel data center, poiché utilizzano tutte le risorse di calcolo disponibili e richiedono un'infrastruttura agile ed elastica in grado di scalare. NVIDIA DGX Station A100 è perfettamente adatto per testare le prestazioni e i risultati di inferenza in locale prima della distribuzione nel data center, grazie alle tecnologie integrate come MIG che accelerano i carichi di lavoro di inferenza e garantiscono la massima produttività e reattività in tempo reale, necessarie per dare vita alle applicazioni IA.
Ogni giorno vengono raccolti e generati quantitativi di dati senza precedenti. Questa enorme quantità di informazioni rappresenta un'opportunità persa per coloro che non usano analisi basate su GPU. Più dati significa più informazioni. Con NVIDIA DGX Station A100, i team di scienza dei dati possono trarre informazioni utili dai dati in tempi più rapidi che mai.
Il calcolo ad alte prestazioni o HPC (High Performance Computing) è uno degli strumenti più essenziali per alimentare i progressi scientifici. Ottimizzando oltre 700 applicazioni in una vasta gamma di domini, le GPU NVIDIA sono il motore del data center HPC moderno. Dotato di quattro GPU NVIDIA A100 Tensor Core, il sistema DGX Station A100 è perfetto per gli sviluppatori per testare i carichi di lavoro scientifici prima di distribuirli sui cluster HPC, consentendo di offrire prestazioni all'avanguardia in ufficio o anche da casa.
Il training ad alte prestazioni aumenta la produttività e quindi la velocità nell'estrarre conoscenze dai dati, permettendo di accelerare il time to market.
Fase 1 di pre-training su BERT Large
Oltre 3 volte più veloce
DGX Station A100 320GB; Dimensioni batch = 64, precisione mista, con AMP, dati reali, lunghezza sequenza = 128
BERT Large Inference
Oltre 4 volte più veloce
DGX Station A100 320GB; dimensioni batch = 256, precisione INT8; dati sintetici; lunghezza sequenza = 128, cuDNN 8.0.4
Training su ResNet-50 V1.5
Scalabilità lineare
DGX Station A100 320GB; Dimensioni batch = 192, precisione mista, dati reali, versione cuDNN = 8.0.4, versione NCCL = 2.7.8, container NGC MXNet 20.10
Il Mass General Hospital (MGH) & il Brigham and Women's Hospital (BWH) Center for Clinical Data Science usa DGX Station per potenziare le reti avversarie generative (GAN) che creano immagini sintetiche di risonanze magnetiche del cervello, consentendo al team di addestrare la rete neurale con un numero significativamente inferiore di dati. DGX Station funge da risorsa IA dedicata per assicurare che i radiologi possano portare avanti i progetti.
La ferrovia federale Svizzera (FFS) dispone di 15.000 treni che offrono 1,2 milioni di corse al giorno. La potenza di DGX Station ha consentito il rilevamento dei guasti più accurato e automatizzato nei binari ferroviari e ridotto i tempi di ispezione in loco. Il software IA ottimizzato in DGX Station consente ai progettisti di concentrarsi sulla raccolta dei dati giusti invece di testare e configurare i componenti.
Avitas Systems usa robot basati su IA che rilevano corrosione, perdite e altri difetti impercettibili all'occhio umano con una precisione incredibile ispezionando angoli remoti che gli esseri umani non possono raggiungere. L'azienda usa reti neurali profonde sviluppate su server NVIDIA DGX nel data center e facilmente estese a NVIDIA DGX Station sul campo per eseguire inferenze nel posto più vicino a dove i dati vengono generati.
CONTATTACI PER SAPERNE DI PIÙ
Informativa sulla privacy