Il sistema universale per l'infrastruttura IA
NVIDIA DGX™ A100 è il sistema universale per tutti i carichi di lavoro di IA, offre densità di calcolo, prestazioni e flessibilità senza precedenti nel primo sistema IA a 5 petaFLOPS. NVIDIA DGX A100 è dotato dell'acceleratore più avanzato al mondo, la GPU NVIDIA A100 Tensor Core, che consente alle aziende di consolidare il training, l'inferenza e l'analisi in un'infrastruttura IA unificata e facile da implementare che include l'accesso diretto agli esperti di IA NVIDIA.
NVIDIA DGX A100 è il sistema universale per tutte le infrastrutture IA, dall'analisi al training, fino al all'inferenza. Stabilisce un nuovo standard per la densità di calcolo, con 5 petaFLOPS di prestazioni IA in un fattore di forma 6U, sostituendo i silos dell'infrastruttura legacy con una piattaforma per ogni carico di lavoro IA.
Gli NVIDIA DGXperts sono un team globale di oltre 16.000 professionisti esperti di IA che hanno accumulato esperienza da più di dieci anni per aiutarti a massimizzare il valore del tuo investimento in DGX.
NVIDIA DGX A100 è il primo sistema al mondo con GPU NVIDIA A100 Tensor Core. Integrare otto GPU A100 con fino a 640 GB di memoria GPU, il sistema offre un'accelerazione senza precedenti, ed è completamente ottimizzato per il software NVIDIA CUDA-X™ e lo stack di soluzioni completo per data center NVIDIA.
NVIDIA DGX A100 include una rete Mellanox integrata con 500 gigabyte al secondo (GB/s) di picco di banda bidirezionale. Questa è una delle tante funzionalità che rendono DGX A100 il componente essenziale per grandi cluster IA come NVIDIA DGX SuperPOD™, il progetto di riferimento aziendale per l'infrastruttura IA scalabile.
Lo starter kit NVIDIA AI offre tutto ciò che serve ai team, da una piattaforma IA di livello mondiale, a software e strumenti ottimizzati, a servizi di consulenza, per avviare subito i progetti IA. Non perdere tempo e denaro nella creazione di una piattaforma IA. Attacca la spina e parti in un giorno, ricevi i casi d'uso definiti in una settimana e inizia subito a realizzare i modelli.
Scopri di più sui sistemi NVIDIA DGX A100
Training DLRM
Throughput fino a 3 volte superiore per il training con IA sui modelli più grandi
DLRM su framework HugeCTR, precisione = FP16 | Dimensioni batch di 1 DGX A100 640GB = 48 | Dimensioni batch di 2 DGX A100 320GB = 32 | Dimensioni batch di 1 DGX-2 (16 V100 32GB) = 32. Velocità normalizzate in base al numero di GPU.
Inferenza RNN-T: flusso singolo
Throughput fino a 1,25 volte superiore per inferenza con IA
MLPerf 0.7 RNN-T misurato con (1/7) MIG. Framework: TensorRT 7.2, dataset = LibriSpeech, precisione = FP16.
Benchmark di analisi dei big data
Throughput fino a 83 volte superiore rispetto alla CPU, throughput 2 volte superiore rispetto a DGX A100 320GB
Benchmark di analisi dei big data | 30 query retail analitiche, ETL, ML, NLP su dataset da 10 TB | CPU: 19 Intel Xeon Gold 6252 2.10 GHz, Hadoop | 16 DGX-1 (8 V100 32GB ciascuno), RAPIDS/Dask | 12 DGX A100 320GB e 6 DGX A100 640GB, RAPIDS/Dask/BlazingSQL. Velocità normalizzate in base al numero di GPU
1 8 GPU NVIDIA A100 con 640 GB di memoria GPU totale 12 NVLink per GPU, 600 GB/s di banda GPU-GPU
2 6 NVSwitch di seconda generazione 4,8 TB/s di banda bidirezionale, Il doppio rispetto alla generazione precedente
3 10 Mellanox ConnectX-6 VPI HDR InfiniBand/200 Gb Ethernet 500 GB/s di picco di banda bidirezionale
4 CPU AMD Dual 64-Core e 2 TB di memoria di sistema 2,7 volte i Core per alimentare i processi IA più intensivi
5 SSD NVME Gen4 30 TB 50 GB/s di picco di banda, Velocità raddoppiata rispetto alle SSD NVME Gen3
Scopri il nuovo NVIDIA DGX A100.
La GPU NVIDIA A100 Tensor Core offre accelerazione senza precedenti per IA, analisi dei dati e calcolo ad alte prestazioni (HPC) per affrontare le sfide di calcolo più complesse del mondo. Con l'enorme aumento delle prestazioni di NVIDIA Tensor Core di terza generazione, la A100 è in grado di scalare in modo efficiente a migliaia di GPU o, con Multi-Instance GPU, essere allocata come sette diverse istanze GPU per accelerare i carichi di lavoro di ogni dimensione.
Con MIG, le otto GPU A100 in DGX A100 possono essere configurate in fino a 56 istanze, ciascuna di esse completamente isolata con la propria memoria a banda elevata, cache e core di calcolo. Questo consente agli amministratori di dimensionare correttamente le GPU con qualità del servizio (QoS) garantita per più carichi di lavoro.
La terza generazione di NVIDIA® NVLink® in DGX A100 raddoppia la larghezza di banda diretta GPU-GPU a 600 gigabyte al secondo (GB/s), quasi 10 volte superiore a PCIe Gen4. DGX A100 dispone inoltre di NVIDIA NVSwitch™ di nuova generazione, due volte più veloce rispetto al precedente.
DGX A100 è dotato dei più recenti adattatori Mellanox ConnectX-6 VPI HDR InfiniBand/Ethernet, ciascuno in esecuzione a 200 Gb/s per creare un fabric ad alta velocità per carichi di lavoro IA su larga scala.
DGX A100 integra uno stack software DGX testato e ottimizzato, che include un sistema operativo di base calibrato per IA, tutto il software di sistema necessario e applicazioni accelerate da GPU, modelli pre-addestrati e altro ancora, da NGC™.
DGX A100 offre il livello di sicurezza più solido per le distribuzioni IA, con un approccio a più livelli che protegge tutti i principali componenti hardware e software, tra cui unità autocrittografate, container software firmati, gestione e monitoraggio protetti e molto altro ancora.
Scopri il supporto di livello aziendale per i sistemi NVIDIA DGX.
Infrastruttura IA leader
Informativa sulla privacy