NVLink Fabric

향상된 멀티 GPU 프로세싱

시스템 처리량 극대화

시스템 처리량 극대화

NVIDIA® NVLink 기술은 더 높은 대역폭, 더 많은 링크, 다중 GPU 및 다중 GPU/CPU 시스템 구성을 위한 개선된 확장 가능성으로 이 상호 연결 문제를 해결합니다. 단일 NVIDIA Tesla® V100 GPU는 최대 6개의 NVLink 링크와 초당 300GB의 최대 대역폭을 지원하는데, 이는 PCIe 3 대역폭의 10배입니다. 새로운 NVIDIA DGX-1와 같은 서버는 이런 기술의 이점을 활용하여 초고속 딥 러닝 트레이닝을 위한 더 큰 확장 가능성을 제공합니다.

새로운 GPU 간 가속화 수준

NVIDIA Pascal 아키텍처에서 처음 사용된 기술로, Tesla V100의 NVLink는 양방향의 신호 속도를 초당 20~25GB로 증가시켰습니다. DGX-1V와 Tesla V100의 예와 같이 GPU에서 CPU 또는 GPU 간의 통신에 사용될 수 있습니다.

Tesla V100와 NVLink GPU 간 또는 GPU에서 CPU 연결
DGX-1V 서버에서 사용된 것과 같은 하이브리드 큐브 메쉬 토폴로지에서 Tesla V100
새로운 성능 수준

새로운 성능 수준

NVIDIA NVLink는 해당 기술 외에는 동일하게 구성된 서버 대비 성능을 46% 향상시킬 수 있습니다. 현저하게 높아진 대역폭과 감소된 지연은 거대한 딥 러닝 워크로드가 더 커질수록 이에 맞춰 성능을 확장할 수 있게 합니다.

NVSwitch: 풀 스로틀 NVLink

다중 GPU 시스템 수준에서 PCIe 대역폭이 점점 더 병목 지점이 되고 있으므로 딥 러닝 워크로드에서의 신속한 성장은 더 빠르고 더 확장 가능한 상호 연결의 수요를 증가시켰습니다.

NVLink는 8개의 GPU를 단일 서버에서 지원하였으며 PCIe를 넘어선 성능 가속화를 이루는 등 대단한 발전을 보였습니다. 하지만 딥 러닝 성능을 다음 단계로 끌어올리려면 더 많은 GPU를 단일 서버에 지원하며 이러한 GPU 사이에 완전한 대역폭 연결성을 보장하는 GPU 패브릭이 필요합니다.

NVIDIA NVSwitch는 단일 서버 노드에서 16개의 완전히 연결된 GPU를 지원하는 최초의 온-노드 스위치 아키텍처입니다. 8개의 GPU 쌍에서 각각 300 GB/s 의 놀라운 동시 통신을 지원합니다. 이 16개의 GPU는 0.5 테라바이트의 통합 메모리 공간과 2 페타 플롭의 딥 러닝 컴퓨팅 성능을 갖춘 단일 라지 스케일 가속기로 사용할 수 있습니다. NVSwitch 를 갖춘 단일 HGX-2 / DGX-2 시스템은 인피니밴드를 통해 연결된 2개의 HGX-1 / DGX-1 시스템보다 최대 2.7배 더 높은 어플리케이션 성능을 제공합니다. 

NVSwitch Delivers a >2X Speedup for Deep Learning and HPC

2 HGX-1V servers have dual socket Xeon E5 2698v4 Processor, 8X V100 GPUs. Servers connected via 4X 100Gb IB ports (run on DGX-1) . HGX-2 server has dual-socket Xeon Platinum 8168 Processor, 16X V100 GPUs (run on DGX-2).