Magnum IO

다중 GPU 및 다중 노드 네트워크 및 스토리지 IO 최적화 스택

컴퓨팅 집약적 워크로드의 대역폭 요구를 충족시키다

GPU는 컴퓨팅 집약적 워크로드에 필요한 성능을 제공하지만, 그에 따른 데이터 소비량으로 인해 입/출력(IO) 대역폭에 대한 요구가 증가합니다. NVIDIA Magnum IO 는 NVIDIA가 선보이는 API 세트로, 다중 GPU 및 다중 노드 가속화 시스템을 위해 IO 성능을 극대화하기 위하여 컴퓨팅, 네트워킹 파일 시스템, 스토리지를 통합했습니다. CUDA-X 라이브러리와의 인터페이싱을 통해 AI에서 시각화에 이르는 광범위한 워크로드에 걸쳐 IO를 가속화합니다.

GPU 최적화 네트워킹 및 스토리지 IO 성능

Magnum IO는 인프라 요소를 통합하여 스토리지 및 네트워크 I/O 성능 및 기능을 극대화합니다. 주요 이점에는 다음이 포함됩니다.

최적화된 IO 성능: CPU를 우회하여 GPU 메모리와 네트워크 스토리지 사이의 직접 IO를 가능하게 합니다.

시스템의 균형 및 활용률: CPU 회선 쟁탈을 완화해 보다 균형잡힌 GPU 가속화 시스템을 구축하고, 최대 10배 감소한 CPU 코어 수로 피크 IO 대역폭을 제공합니다.

완벽한 통합: 데이터 전송이 지연 시간에 민감하든, 대역폭에 민감하든 또는 둘 모두에 민감하든, 현재는 물론 미래의 플랫폼을 위한 최적화된 구현이 가능합니다.

IO 최적화 스택

Magnum IO에는 NCCL, NVIDIA® GPUDirect RDMA, NVIDIA Fabric Manager와 같은 혁신적인 IO 최적화 기술이 포함되어 있습니다. GPUDirect Storage 는 스택의 핵심적인 특징입니다. GPU 메모리와 스토리지 사이에 직접 데이터 경로를 제공해 CPU를 완전히 우회합니다. 이 직접 경로는 대역폭은 높이고, 지연 시간은 감소시키며, CPU 및 GPU의 활용 부하를 낮출 수 있습니다. Magnum IO 드라이브로 IO 문제를 해결하면 균형 잡힌 시스템을 구축할 수 있습니다.

IO Optimization Stack

Magnum IO에 포함된 기술에 대해 더 자세히 알아보십시오.