Tejido de NVLink

Procesamiento avanzado con varias GPU

Maximizar el rendimiento del sistema

Maximizar el rendimiento del sistema

La tecnología de NVIDIA® NVLink resuelve este problema de interconexión al proporcionar un ancho de banda más elevado, más enlaces y una escalabilidad mejorada para las configuraciones de sistemas de varias GPU y varias GPU/CPU. Una única GPU NVIDIA Tesla® V100 admite hasta seis conexiones NVLink y un ancho de banda total de 300 GB/s, diez veces más que el de PCIe 3. Los servidores como el nuevo NVIDIA DGX-1 aprovechan estas tecnologías para ofrecer una mayor escalabilidad para un entrenamiento de deep learning ultrarrápido.

Nuevos niveles de aceleración GPU a GPU

Presentada inicialmente con la arquitectura de NVIDIA Pascal, NVLink en las Tesla V100 ha incrementado el índice de señalización de 20 a 25 GB/s en cada dirección. Al igual que en el DGX-1 con Tesla V100, se puede usar para comunicación de GPU a CPU o de GPU a GPU.

Tesla V100 con conexiones NVLink GPU a GPU y GPU a CPU
NVLink conectando ocho aceleradores Tesla V100 en una topología de malla de cubo híbrida, como se usa en el servidor DGX-1V
Nuevos niveles de rendimiento

Nuevos niveles de rendimiento

NVIDIA NVLink puede incrementar hasta 31 % el rendimiento de un servidor configurado idénticamente. El incremento considerable de ancho de banda y la latencia reducida dan paso a que cargas de trabajo de deep learning mucho mayores mejoren el rendimiento a medida que siguen creciendo.

NVSwitch: conexión total de NVLink

El rápido crecimiento de las cargas de trabajo de deep learning ha generado la necesidad de una interconexión más rápida y escalable, pues el ancho de banda PCIe es cada vez más un cuello de botella en el nivel de sistemas de varias GPU.

NVLink supone un gran avance para habilitar ocho GPU en un único servidor y acelerar el rendimiento más allá del PCIe. Pero, para llevar el rendimiento de deep learning al siguiente nivel, se necesita un tejido de GPU que permita usar más GPU en un único servidor, así como conectividad de ancho de banda total entre ellas.

NVIDIA NVSwitch es la primera arquitectura de conmutadores en nodo en admitir 16 GPU totalmente conectadas en un único nodo de servidor y permitir la comunicación simultánea entre ocho pares de GPU a la increíble velocidad de 300 GB/s cada uno. Estas 16 GPU se pueden usar como acelerador único a gran escala con 0,5 terabytes de espacio de memoria unificada y 2 petaflops de poder de computación de deep learning.

Gráfica de aceleración de NVSwitch