NVLink Switch Chip

Switch NVLink y NVLink

Estructura de redes escalable con comunicaciones de GPU a GPU de alto ancho de banda para entrenamiento de IA, inferencia y otras cargas de trabajo exigentes a escala de rack aceleradas por GPU.

La Necesidad de una Interconexión de Escalabilidad Más Rápida

Alcanzar el más alto desempeño para los últimos modelos de IA requiere comunicaciones de GPU a GPU fluidos, eficientes y de alto rendimiento en todo el bastidor de servidores. Con baja latencia, un ancho de banda de red masivo y una conectividad integral, NVIDIA NVLink™ de sexta generación y NVLink Switch están diseñados para acelerar el entrenamiento y la inferencia, logrando un razonamiento más rápido y cargas de trabajo de IA más ágiles.

Rendimiento NVLink

En comparación con la generación anterior, NVLink de NVIDIA de sexta generación en NVIDIA Rubin aumenta el ancho de banda de comunicación de GPU a GPU por 2 veces, lo que permite un entrenamiento e inferencia más rápidos con las últimas arquitecturas de modelos de IA.

Aumente el Rendimiento de la GPU con Switches NVLink

Conecte Completamente las GPU con NVLink de NVIDIA y Switch NVLink

NVLink es una interconexión bidireccional y directa de GPU a GPU de 3,6 TB/s que escala la entrada y salida (IO) de múltiples GPU dentro de un servidor. Los chips de switch NVLink de NVIDIA conectan múltiples NVLinks para ofrecer comunicación de GPU a GPU a la velocidad completa de NVLink en todo el rack.

Para permitir operaciones colectivas de alta velocidad, cada switch NVLink tiene motores para Agregación Jerárquica Escalable y Protocolo de Reducción (SHARP)™ de NVIDIA para reducciones en la red y aceleración multicast.  

Acelere el Razonamiento en el Tiempo de Prueba para Modelos de Billones de Parámetros con el Sistema de Switches NVLink.

Con NVLink Switch es posible extender las conexiones de NVLink a todos los nodos para crear un clúster de GPU de múltiples nodos de manera fluida, eficiente y con un alto ancho de banda, con lo cual se forma efectivamente una GPU del tamaño de un data center. El switch NVLink de NVIDIA permite 260 TB/s de ancho de banda de GPU en una NVIDIA Vera Rubin NVL72 para el paralelismo de grandes modelos. Los clústeres de varios servidores con NVLink escalan las comunicaciones de GPU siguiendo el ritmo del aumento de la computación, por lo que NVIDIA Vera Rubin NVL72 puede admitir 9 veces más GPU, en comparación con un solo sistema de ocho GPU.

Escalando de la Empresa a la Exaescala

Conexión Completa para un Rendimiento Incomparable

El chip NVLink Switch de Vera Rubin NVL72 permite 72 GPU completamente conectadas en una estructura de computación no bloqueante. El switch NVLink interconecta todos los pares de GPU a una increíble tasa de 3,6 TB/s. Admite una comunicación completamente multidireccional.   Las 72 GPU en Vera Rubin NVL72 se pueden usar como un solo acelerador de alto rendimiento con hasta 3,6 exaFLOPS de potencia de computación de IA. 

La Plataforma de IA y HPC Más Potente

NVLink y Switch NVLink son componentes esenciales de la solución completa para data centers de NVIDIA, que incluye hardware, redes, software, bibliotecas y modelos y aplicaciones de IA optimizados del paquete de software NVIDIA AI Enterprise y del catálogo NVIDIA NGC™. La plataforma de IA y HPC integral más potente permite a los investigadores ofrecer resultados del mundo real e implementar soluciones en la producción, lo que impulsa una aceleración sin precedentes a todos los niveles.

NVIDIA Blackwell Ultra Delivers up to 50x Better Performance and 35x Lower Cost for Agentic AI

Built to accelerate the next generation of agentic AI, NVIDIA Blackwell Ultra delivers breakthrough inference performance with dramatically lower cost. Cloud providers such as Microsoft, CoreWeave, and Oracle Cloud Infrastructure are deploying NVIDIA GB300 NVL72 systems at scale for low-latency and long-context use cases, such as agentic coding and coding assistants.

This is enabled by deep co-design across NVIDIA Blackwell, NVLink™, and NVLink Switch for scale-out; NVFP4 for low-precision accuracy; and NVIDIA Dynamo and TensorRT™ LLM for speed and flexibility—as well as development with community frameworks SGLang, vLLM, and more.

Explore en profundidad la plataforma NVIDIA Rubin.