Socket Direct 어댑터

데이터센터 성능 극대화 및 ROI 증가

혁신적인 네트워크 어댑터 아키텍처인 NVIDIA® Mellanox® Socket Direct®는 여러 CPU 소켓에 대한 직접적인 PCIe 액세스를 지원해 네트워크 트래픽이 프로세스 간 버스를 횡단하지 않아도 되게 합니다. 이를 통해 가장 까다로운 애플리케이션 및 시장의 전반적인 시스템 성능과 최대 처리량을 최적화합니다.

트래픽 병목 현상 제거

NVIDIA Mellanox  Multi-Host® 기술을 기반으로 하는 NVIDIA Mellanox Socket Direct 기술은 여러 소켓 서버 내에서 여러 CPU가 각각 전용 PCIe 인터페이스를 통해 네트워크에 직접 연결될 수 있게 해줍니다. PCIe 레인을 두 카드 간에 분할하는 연결 하네스를 통해서나 단일 카드용 PCIe 슬롯을 분기하는 방법이 사용됩니다. 이에 따라 소켓 사이의 내부 버스를 횡단하는 네트워크 트래픽이 제거되어 CPU 사용률이 감소되고 네트워크 처리량이 늘어나는 것 외에도 오버헤드와 지연 시간이 대폭 줄어듭니다. Mellanox Socket Direct는 기본 GPU-Direct® 기술을 지원하므로 인공 지능 및 머신 러닝 애플리케이션 성능도 향상시킵니다.

NVIDIA Mellanox Socket-Direct 어댑터

하이라이트

이점

속도

여러 데이터 속도에서 유연한 폼 팩터

  • ConnectX-6 Dx Multi-Host OCP 3.0 카드는 최대 4개의 PCIe Gen4 x4 슬롯에 200GbE 포트를 연결할 수 있습니다.
  • ConnectX-6 Socket Direct 카드는 2개의 PCIe Gen3 x16 슬롯을 통해 HDR 200Gb/s 또는 200GbE 포트를 제공합니다.
  • ConnectX-6 OCP3.0 카드는 최대 4개의 PCIe Gen4 x4 슬롯에 HDR 200Gb/s 또는 200GbE 포트를 제공합니다.
  • ConnectX-5 Socket Direct 카드는 2개의 PCIe Gen3 x8 슬롯을 통해 EDR 100Gb/s 또는 100GbE 전송 속도를 제공합니다.
성능

관리가 용이한 향상된 성능

Socket Direct 어댑터는 표준 NVIDIA PCIe 스탠드업 어댑터와 유사하게 SMBus 를 통한 MCTP 또는 PCIe를 통한 MCTP를 사용하여 BMC에 연결할 수 있습니다. 선택한 관리 인터페이스는 플랫폼 관리 및 하위 시스템 구성 요소 간의 통신을 용이하게 하며 그런 다음에는 선택한 서버 관리 솔루션을 통해 Socket Direct 어댑터를 투명하게 구성할 수 있습니다.

Socket Direct

Socket Direct는 프로세서 간 버스의 부하를 제거합니다.

Socket Direct 기술은 동일한 서버 내의 다른 CPU에만 멀티 호스트를 지원하는 동일한 기본 기술을 활용합니다. 프로세서 간 부하를 적용하면서 Socket Direct가 구현될 때와 비교하여 서버의 외부 처리량을 비교하면, 단일 CPU에 대한 표준 어댑터 연결에 비해 처리량이 16%~28% 향상됩니다.

멀티 호스트와 Socket Direct 비교

  멀티 호스트 Socket Direct
동기 CAPEX/OPEX 감소 성능 향상
서버 구성 개별 서버, 각 서버에 자체 OS 인스턴스가 있음 단일 OS를 실행하는 단일 서버
PCIe 신호 개별 PCIe 리셋, 클럭 등 일반적인 PCIe 리셋, 클럭 등
BMC 개별 BMC 지원 단일 BMC
사전 부팅 개별 사전 부팅 인스턴스 단일 사전 부팅 인스턴스

ConnectX 비교

  주문 부품 번호 최대 속도 포트 커넥터 ASIC 및 PCI DEV ID PCI 레인
ConnectX-6 Dx MCX623435MN-CDAB 100GbE 1 QSFP56 ConnectX-6 Dx OCP3.0, 멀티 호스트 또는 Socket Direct, PCIe 4.0 x16 1x16/2x8/4x4
NVIDIA에 문의하기 100GbE 1 DSFP ConnectX-6 Dx OCP3.0, 멀티 호스트 또는 Socket Direct, PCIe 4.0 x16 1x16/2x8/4x4
NVIDIA에 문의하기 100GbE 1 QSFP56 ConnectX-6 Dx Socket Direct PCIe 4.0 x16, 2개의 x8로 분할 연속 2x8
NVIDIA에 문의하기 200GbE 1 QSFP56 ConnectX-6 Dx OCP3.0, 멀티 호스트 또는 Socket Direct, PCIe 4.0 x16 1x16/2x8/4x4
ConnectX-6 VPI MCX653105A-EFAT HDR100, EDR IB(100Gb/s) 및 100GbE 1 QSFP56 ConnectX-6 Socket Direct 3.0/4.0 x16, 2개의 x8로 분할 연속 2x8
MCX653106A-EFAT HDR100, EDR IB(100Gb/s) 및 100GbE 2 QSFP56 ConnectX-6 Socket Direct 3.0/4.0 x16, 2개의 x8로 분할 연속 2x8
MCX653106A-EFAT HDR IB(200Gb/s) 및 200GbE 1 QSFP56 ConnectX-6 Socket Direct PCIe3.0 x16 + PCIe3.0x16 보조 카드 2x16
MCX654106A-HCAT HDR IB(200Gb/s) 및 200GbE 2 QSFP56 ConnectX-6 Socket Direct PCIe3.0 x16 + PCIe3.0x16 보조 카드 2x16
ConnectX-5 VPI MCX556M-ECAT-S25 EDR IB(100Gb/s) 및 100GbE 2 QSFP28 ConnectX-5 Socket Direct PCIe3.0 x8 + PCIe3.0x8 보조 카드, 25cm 하네스 2x8
MCX556M-ECAT-S35A EDR IB(100Gb/s) 및 100GbE 2 QSFP28 ConnectX-5 Socket Direct PCIe3.0 x8 + PCIe3.0x8 보조 카드, 35cm 하네스 2x8

리소스

가장 효율적인 고성능 네트워크를 구축할 수 있도록 도와드리겠습니다.

SmartNIC Selector

Academy 온라인 과정

구매할 준비가 되셨나요