NVIDIA DGX A100

Il sistema universale per l'infrastruttura IA

Il primo sistema IA del mondo basato su NVIDIA A100

NVIDIA DGX A100 è il sistema universale per tutti i carichi di lavoro di IA, offre densità di calcolo, prestazioni e flessibilità senza precedenti nel primo sistema IA a 5 petaFLOPS. NVIDIA DGX A100 è dotato dell'acceleratore più avanzato al mondo, la GPU NVIDIA A100 Tensor Core, che consente alle aziende di consolidare il training, l'inferenza e l'analisi in un'infrastruttura IA unificata e facile da implementare che include l'accesso diretto agli esperti di IA NVIDIA.

Le fondamenta del data center IA

Il sistema universale per ogni carico di lavoro IA

Il sistema universale per ogni carico di lavoro IA

NVIDIA DGX A100 è il sistema universale per tutte le infrastrutture IA, dall'analisi al training, fino al all'inferenza. Stabilisce un nuovo standard per la densità di calcolo, con 5 petaFLOPS di prestazioni IA in un fattore di forma 6U, sostituendo i silos dell'infrastruttura legacy con una piattaforma per ogni carico di lavoro IA.

DGXperts: accesso integrato a competenze IA

DGXperts: accesso integrato a competenze IA

Gli NVIDIA DGXperts sono un team globale di oltre 20.000 professionisti esperti di IA che hanno accumulato esperienza da più di dieci anni per aiutarti a massimizzare il valore del tuo investimento in DGX.

Tempi più rapidi per arrivare alla soluzione

Tempi più rapidi per arrivare alla soluzione

NVIDIA DGX A100 è il primo sistema IA basato su GPU NVIDIA A100 Tensor Core. Integrando otto GPU A100 con opzioni per la memoria della GPU da 320 GB e 640 GB, il sistema offre un'accelerazione senza precedenti, ed è completamente ottimizzato per il software NVIDIA CUDA-X™ e lo stack di soluzioni completo per data center NVIDIA.

data center-scalability-icon

Scalabilità del data center senza pari

NVIDIA DGX A100 include adattatori di rete NVIDIA® ConnectX®-7 InfiniBand/Ethernet con 500 gigabyte al secondo (GB/s) di picco di banda bidirezionale. Questa è una delle tante funzionalità che rendono DGX A100 il componente essenziale per grandi cluster IA come NVIDIA DGX SuperPOD, il progetto di riferimento aziendale per l'infrastruttura IA scalabile.

Un modo più semplice e veloce per gestire l'IA

Un modo più semplice e veloce per gestire l'IA

Lo starter kit NVIDIA AI offre tutto ciò che serve ai team, da una piattaforma IA di livello mondiale, a software e strumenti ottimizzati, a servizi di consulenza, per avviare subito i progetti IA. Non perdere tempo e denaro nella creazione di una piattaforma IA. Attacca la spina e parti in un giorno, ricevi i casi d'uso definiti in una settimana e inizia subito a realizzare i modelli.

  • Per sviluppatori
  • Per manager IT
  • Per leader aziendali
Risolvi problemi di scienza dei dati più grandi e più complessi in tempi più rapidi

Risolvi problemi di scienza dei dati più grandi e più complessi in tempi più rapidi

Vantaggi

  • Elimina attività di configurazioni e test tediose con un software ottimizzato per l'IA pronto per l'esecuzione.
  • Crea i modelli superiori più velocemente con prestazioni senza pari che consentono più iterazioni.
  • Evita di perdere tempo con l'integrazione dei sistemi e il software engineering.
Implementa l'infrastruttura e rendi l'IA operativa su larga scala

Implementa l'infrastruttura e rendi l'IA operativa su larga scala

Vantaggi

  • Scopri il design di infrastruttura semplificata e la pianificazione delle capacità in un solo sistema per tutti i carichi di lavoro.
  • Ottieni la massima densità di elaborazione e le prestazioni più elevate in un ingombro estremamente ridotto.
  • Approfitta della sicurezza integrata a ogni livello.

 

Accorcia i tempi per ottenere le informazioni e accelera il ROI dell'IA

Accorcia i tempi per ottenere le informazioni e accelera il ROI dell'IA

Vantaggi

  • Aumenta la produttività degli esperti di dati ed elimina le attività che non aggiungono valore.
  • Accelera il ciclo di sviluppo, dal concetto alla produzione.
  • Rimuovi gli ostacoli con i consigli dei DGXperts.
  •  

Prestazioni rivoluzionarie

Training

Training DLRM

Throughput fino a 3 volte superiore
per il training con IA sui modelli più grandi

Inferenza

Inferenza RNN-T: flusso singolo

Throughput fino a 1,25 volte superiore
per l'inferenza con IA

Analisi dei dati

Benchmark di analisi dei big data

Throughput fino a 83 volte superiore rispetto alla CPU
Throughput 2 volte superiore rispetto a DGX A100 320 GB

Esplora i potenti componenti di DGX A100

1 8 GPU NVIDIA A100 con fino a 640 GB di memoria GPU totale
12 NVLinks/GPU, larghezza di banda bidirezionale 600 GB/s GPU-GPU

2 6 NVIDIA NVSwitch
4,8 TB/s di banda bidirezionale, 2 volte superiore rispetto alla generazione di NVSwitch precedente

3 10 X INTERFACCIA DI RETE NVIDIA CONNECTX-7 200 Gb/s
Picco di banda bidirezionale 500 GB/s

4 CPU AMD Dual 64-Core e 2 TB di memoria di sistema
3,2 i core per alimentare i processi IA più intensi

5 SSD NVME Gen4 30 TB
Picco di banda 50 GB/s, 2 volte più veloce rispetto agli SSD NVME Gen3

Data center

Scopri la nuova NVIDIA DGX A100.

La tecnologia all'interno di NVIDIA DGX A100

  • GPU A100
  • Multi-Instance GPU
  • NVLink e NVSwitch
  • ConnectX-7
  • Stack software ottimizzato
  • Sicurezza

GPU NVIDIA A100 Tensor Core

La GPU NVIDIA A100 Tensor Core offre accelerazione senza precedenti per IA, analisi dei dati e calcolo ad alte prestazioni (HPC) per affrontare le sfide di calcolo più complesse del mondo. Con l'enorme aumento delle prestazioni di NVIDIA Tensor Core di terza generazione, la A100 è in grado di scalare in modo efficiente a migliaia di GPU o, con Multi-Instance GPU, essere allocata come sette diverse istanze GPU per accelerare i carichi di lavoro di ogni dimensione.

GPU NVIDIA A100 Tensor Core

Multi-Instance GPU (MIG)

Con MIG, le otto GPU A100 in DGX A100 possono essere configurate in fino a 56 istanze, ciascuna di esse completamente isolata con la propria memoria a banda elevata, cache e core di calcolo. Questo consente agli amministratori di dimensionare correttamente le GPU con qualità del servizio (QoS) garantita per più carichi di lavoro.

Multi-Instance GPU

NVLink e NVSwitch di nuova generazione

La terza generazione di NVIDIA® NVLink® in DGX A100 raddoppia la larghezza di banda diretta GPU-GPU a 600 gigabyte al secondo (GB/s), quasi 10 volte superiore a PCIe Gen4. DGX A100 dispone inoltre di NVIDIA NVSwitch™ di nuova generazione, due volte più veloce rispetto al precedente.

NVLink e NVSwitch di nuova generazione

NVIDIA ConnectX-7 200Gb/s InfiniBand/Ethernet

DGX A100 è dotato di adattatori NVIDIA ConnectX-7 InfiniBand e VPI (Infiniband o Ethernet), ciascuno in esecuzione a 200 Gb/s per creare un fabric ad alta velocità per carichi di lavoro IA su larga scala.

Mellanox ConnectX-6 VPI HDR InfiniBand

Stack software ottimizzato

DGX A100 integra uno stack software DGX testato e ottimizzato, che include un sistema operativo di base calibrato per IA, tutto il software di sistema necessario e applicazioni accelerate da GPU, modelli pre-addestrati e altro ancora, da NGC.

Stack software DGX

Sicurezza integrata

DGX A100 offre il livello di sicurezza più solido per le distribuzioni IA, con un approccio a più livelli che si estende attraverso il controller di gestione della scheda madre (BMC), scheda CPU, scheda GPU, unità auto crittografate e boot sicuro.

Sicurezza integrata

Scopri il supporto di livello aziendale per i sistemi NVIDIA DGX.

Acquista subito NVIDIA DGX

Scopri i sistemi NVIDIA DGX