Il sistema universale per l'infrastruttura IA
NVIDIA DGX™ A100 è il sistema universale per tutti i carichi di lavoro di IA, offre densità di calcolo, prestazioni e flessibilità senza precedenti nel primo sistema IA a 5 petaFLOPS. Dotato di GPU NVIDIA A100 Tensor Core, il sistema DGX A100 consente alle aziende di consolidare il training, l'inferenza e l'analisi in un'infrastruttura IA unificata e facile da implementare che include l'accesso diretto agli esperti di IA NVIDIA.
NVIDIA DGX A100 è il sistema universale per tutte le infrastrutture IA, dall'analisi al training, fino al all'inferenza. DGX A100 si basa su NVIDIA Base Command, il sistema operativo per il data center accelerato. Stabilisce un nuovo standard per la densità di calcolo, con 5 petaFLOPS di prestazioni IA in un fattore di forma 6U, sostituendo i silos dell'infrastruttura legacy con una piattaforma per ogni carico di lavoro IA.
Gli NVIDIA DGXperts sono un team globale di oltre 20.000 professionisti esperti di IA che hanno accumulato esperienza da più di dieci anni per aiutarti a massimizzare il valore del tuo investimento in DGX.
NVIDIA DGX A100 è il primo sistema IA basato su GPU NVIDIA A100 Tensor Core. Integrando otto GPU A100 con 320 GB o 640 GB di memoria della GPU, il sistema offre un'accelerazione senza precedenti ed è completamente ottimizzato per il software NVIDIA CUDA-X™ e lo stack di soluzioni completo per data center NVIDIA.
NVIDIA DGX A100 include adattatori di rete NVIDIA® ConnectX®-7 InfiniBand/Ethernet con 500 gigabyte al secondo (GB/s) di picco di banda bidirezionale. Questa è una delle tante funzionalità che rendono DGX A100 il componente essenziale per grandi cluster IA come NVIDIA DGX SuperPOD™, il progetto di riferimento aziendale per l'infrastruttura IA scalabile.
Lo starter kit NVIDIA AI offre tutto ciò che serve ai team, da una piattaforma IA di livello mondiale, a software e strumenti ottimizzati, a servizi di consulenza, per avviare subito i progetti IA. Non perdere tempo e denaro nella creazione di una piattaforma IA. Attacca la spina e parti in un giorno, ricevi i casi d'uso definiti in una settimana e inizia subito a realizzare i modelli.
Training DLRM
Throughput fino a 3 volte superiore per il training con IA sui modelli più grandi
DLRM on HugeCTR framework, precision = FP16 | 1x DGX A100 640GB batch size = 48 | 2x DGX A100 320GB batch size = 32 | 1x DGX-2 (16x V100 32GB) batch size = 32. Velocità normalizzate in base al numero di GPU.
Inferenza RNN-T: flusso singolo
Throughput fino a 1,25 volte superiore per l'inferenza con IA
MLPerf 0.7 RNN-T measured with (1/7) MIG slices. Framework: TensorRT 7.2, dataset = LibriSpeech, precision = FP16.
Benchmark di analisi dei big data
Throughput fino a 83 volte superiore rispetto alla CPU Throughput 2 volte superiore rispetto a DGX A100 320 GB
Benchmark di analisi dei big data | 30 query retail analitiche, ETL, ML, NLP su dataset da 10 TB | CPU: 19 Intel Xeon Gold 6252 2.10 GHz, Hadoop | 16 DGX-1 (8 V100 32GB ciascuno), RAPIDS/Dask | 12 DGX A100 320GB e 6 DGX A100 640GB, RAPIDS/Dask/BlazingSQL. Velocità normalizzate in base al numero di GPU
1 8 GPU NVIDIA A100 con fino a 640 GB di memoria GPU totale 12 NVLinks/GPU, larghezza di banda bidirezionale 600 GB/s GPU-GPU
2 6 NVIDIA NVSwitch 4,8 TB/s di banda bidirezionale, 2 volte superiore rispetto alla generazione di NVSwitch precedente
3Fino a 10 interfacce di rete NVIDIA Connectx-7 200 Gb/s Picco di banda bidirezionale 500 GB/s.
4 CPU AMD Dual 64-Core e 2 TB di memoria di sistema 3,2 i core per alimentare i processi IA più intensi
5 SSD NVME Gen4 30 TB Picco di banda 50 GB/s, 2 volte più veloce rispetto agli SSD NVME Gen3
Scopri la nuova NVIDIA DGX A100.
La GPU NVIDIA A100 Tensor Core offre accelerazione senza precedenti per IA, analisi dei dati e calcolo ad alte prestazioni (HPC) per affrontare le sfide di calcolo più complesse del mondo. Con l'enorme aumento delle prestazioni di NVIDIA Tensor Core di terza generazione, la A100 è in grado di scalare in modo efficiente a migliaia di GPU o, con Multi-Instance GPU, essere allocata come sette diverse istanze GPU per accelerare i carichi di lavoro di ogni dimensione.
Con MIG, le otto GPU A100 in DGX A100 possono essere configurate in fino a 56 istanze, ciascuna di esse completamente isolata con la propria memoria a banda elevata, cache e core di calcolo. Questo consente agli amministratori di dimensionare correttamente le GPU con qualità del servizio (QoS) garantita per più carichi di lavoro.
La terza generazione di NVIDIA® NVLink® in DGX A100 raddoppia la larghezza di banda diretta GPU-GPU a 600 gigabyte al secondo (GB/s), quasi 10 volte superiore a PCIe Gen4. DGX A100 dispone inoltre di NVIDIA NVSwitch™ di nuova generazione, due volte più veloce rispetto al precedente.
DGX A100 è dotato di adattatori NVIDIA ConnectX-7 InfiniBand e VPI (Infiniband o Ethernet), ciascuno in esecuzione a 200 Gb/s per creare un fabric ad alta velocità per carichi di lavoro IA su larga scala. I sistemi DGX A100 sono inoltre disponibili con adattatori ConnectX-6.
DGX A100 integra uno stack software DGX testato e ottimizzato, che include un sistema operativo di base calibrato per IA, tutto il software di sistema necessario e applicazioni accelerate da GPU, modelli pre-addestrati e altro ancora, da NGC™.
DGX A100 offre il livello di sicurezza più solido per le distribuzioni IA, con un approccio a più livelli che si estende attraverso il controller di gestione della scheda madre (BMC), scheda CPU, scheda GPU, unità auto crittografate e boot sicuro.
Scopri il supporto di livello aziendale per i sistemi NVIDIA DGX.
Infrastruttura IA leader
Informativa sulla privacy NVIDIA