Prestazioni estreme per l'era dell'IA exascale
L'architettura di settima generazione NVIDIA® Mellanox® InfiniBand, con NDR 400 GB/s InfiniBand, offre agli sviluppatori IA e ai ricercatori scientifici le prestazioni di rete più veloci disponibili per affrontare i problemi più complessi del mondo. NVIDIA Mellanox InfiniBand® sta spianando la strada con il networking software-defined, l'accelerazione del calcolo in rete, l'accesso diretto alla memoria remota (RDMA) e con velocità e feed più rapidi, oltre ad avanzamenti straordinari rispetto alla generazione precedente di InfiniBand HDR.
Presentazione di NVIDIA NDR 400 GB/s InfiniBand (1:48)
L'HPC (High-Performance Computing), l'IA e le infrastrutture iperscalabili di oggi richiedono interconnessioni più veloci e reti più intelligenti per analizzare i dati ed eseguire simulazioni complesse con maggiore velocità ed efficienza. NVIDIA Mellanox InfiniBand migliora ed estende il calcolo in rete con i motori di calcolo preconfigurati e programmabili, come NVIDIA Mellanox di terza generazione, il protocollo NVIDIA di aggregazione e riduzione gerarchica scalabile (SHARPv3), MPI Tag Matching, MPI All-to-All e i core programmabili, che offrono il costo per nodo e il ROI migliori.
NDR InfiniBand con tecnologia SHARPv3 crea scalabilità illimitata per l'aggregazione di dati di grandi dimensioni tramite la rete, con supporto per fino a 64 flussi in parallelo, una potenza di accelerazione IA 32 volte superiore rispetto alla precedente generazione di InfiniBand HDR. I motori hardware MPI All-to-All e MPI Tag Matching, insieme ad altre funzionalità come il controllo avanzato della congestione, il routing adattivo e la creazione di reti con riparazione autonoma, offrono miglioramenti critici per i cluster HPC e IA, permettendo di ottenere prestazioni ancora più elevate.
Gli adattatori per canali host (HCA) NDR InfiniBand con PCIe Gen4 e Gen5 supportano vari fattori di forma, offrendo porte di rete singole o doppie a 400 gigabyte al secondo (Gb/sec) per NDR, 200 Gb/sec per NDR200 e velocità inferiori.
Gli HCA NDR InfiniBand includono funzionalità avanzate di calcolo in rete con i motori hardware MPI All-to-All e MPI Tag Matching oltre ad altri miglioramenti del fabric per migliorare la qualità del servizio (QoS), tra cui routing adattivo, controllo della congestione e non solo. Gli HCA includono anche core di calcolo programmabili, che consentono di eseguire l'offload di algoritmi di dati di pre-elaborazione e percorsi di controllo delle applicazioni nella rete, garantendo prestazioni più elevate, scalabilità e miglioramento della sovrapposizione tra elaborazione e comunicazione.
La gamma di switch periferici NDR InfiniBand include 64 porte NDR o 128 porte NDR200 su 32 connettori fisici OSFP. Gli switch periferici 1U compatti includono versioni con raffreddamento ad aria e ad acqua, gestiti internamente o esternamente.
La gamma di switch periferici NDR InfiniBand offre un totale di 51,2 terabit al secondo (Tb/s) di throughput bidirezionale, con una capacità di più di 66,5 miliardi di pacchetti al secondo. Come soluzione ideale per InfiniBand montato in rack, lo switch periferico NDR InfiniBand consente la massima flessibilità per una vasta gamma di topologie, tra cui Fat Tree, DragonFly +, Torus multidimensionale, Hypercube e non solo.
La gamma di switch modulari NDR InfiniBand supporta le seguenti configurazioni di porte:
Lo switch modulare più grande supporta un throughput totale bidirezionale di 1,64 petabit al secondo, 5 volte in più rispetto allo switch modulare InfiniBand di precedente generazione.
Lo switch modulare di medie dimensioni offre un throughput totale bidirezionale di 819 Tb/s.
Le opzioni di connettività NDR InfiniBand includono una vasta gamma di ricetrasmettitori e connettori multi-fiber push-on (MPO), cavi in rame attivi (ACC) e cavi collegati diretti (DAC) con una o due opzioni di splitter, garantendo la massima flessibilità per creare qualsiasi topologia con le migliori prestazioni.
Leggi la sintesi dell'architettura completa per saperne di più su NDR.