Magnum IO

Stack di ottimizzazione IO per storage e rete multi-GPU e multi-nodo

Soddisfare la domanda di banda per i carichi di lavoro a elevati requisiti di calcolo

Le GPU forniscono la potenza necessaria per i carichi di lavoro a elevati requisiti di calcolo, tuttavia il consumo di dati aumenta la domanda di banda per l'input/output (IO). NVIDIA Magnum IO è un set di API di NVIDIA che integra computing, rete, file system distribuiti e storage per massimizzare le prestazioni IO per sistemi accelerati multi-GPU e multi-nodo. Si interfaccia con le libreria CUDA-X per accelerare l'IO su una vasta gamma di carichi di lavoro, dall'IA alla virtualizzazione.

Prestazioni IO di rete e storage ottimizzate da GPU

Magnum IO integra elementi infrastrutturali per massimizzare le prestazioni e la funzionalità I/O di storage e rete. I vantaggi chiave includono:

Prestazioni IO ottimizzate: supera la CPU per consentire l'IO diretto tra memoria della GPU e storage di rete.

Utilizzo e bilanciamento del sistema: elimina i conflitti di utilizzo della CPU per creare un sistema accelerato da GPU più bilanciato e raggiungere picchi di banda IO fino con un numero di core della CPU fino a 10 volte inferiore.

Integrazione fluida: fornisce l'implementazione ottimizzata per piattaforme attuali e future, a prescindere che il trasferimento di dati sia sensibile alla latenza, alla banda o entrambe.

Stack di ottimizzazione IO

Magnum IO include le innovative tecnologie di ottimizzazione IO come NCCL, NVIDIA® GPUDirect RDMA e NVIDIA Fabric Manager. GPUDirect Storage è una funzionalità fondamentale dello stack. Essa apre un percorso diretto per il trasferimento dei dati dalla memoria della GPU allo storage, evitando completamente il passaggio per la CPU. Tale percorso diretto aumenta la banda, riduce la latenza e abbatte il carico di utilizzo su CPU e GPU. Affrontare i problemi di IO con Magnum IO permette di bilanciare al meglio il sistema.

Stack di ottimizzazione IO

Scopri di più sulle tecnologie alla base di Magnum IO.