NVIDIA Mellanox ConnectX-5 VPI

EDR 100Gb/s InfiniBand Host Channel Adapter

100Gb/s의 속도와 혁신적인 NVIDIA 인-네트워크 컴퓨팅을 활용하는 NVIDIA® Mellanox® ConnectX®-5 어댑터 카드는 극강의 성능과 확장성을 달성합니다. ConnectX-5를 통해 어떤 규모의 슈퍼컴퓨터, 하이퍼스케일 및 클라우드 데이터센터든 운영할 수 있으며 운영 비용과 인프라 복잡성을 줄일 수 있습니다.

100Gb/s를 지원하는 싱글/듀얼 포트 어댑터

ConnectX-5 Virtual Protocol Interconnect®(VPI) 어댑터 카드는 InfiniBand 및 이더넷 연결을 위한 2개의 100Gb/s 처리량 포트, 짧은 지연 시간 및 높은 메시지 속도뿐 아니라 PCIe 스위치 및 NVME-oF(NVMe over Fabrics) 오프로드를 지원하여 가장 까다로운 애플리케이션과 워크로드를 위한 유연한 고성능 솔루션을 제공합니다.

NVIDIA Mellanox 듀얼 포트 100GbE/싱글 포트 200GbE SmartNIC

하이라이트

고급 애플리케이션을 위한 새로운 기능 지원

고성능 컴퓨팅

고성능 컴퓨팅(HPC)

ConnectX-5는 MPI(Message Passing Interface) 및 랑데부 태그 매칭 오프로드를 통해 까다로운 HPC 및 딥 러닝 워크로드에 탁월한 네트워킹 성능을 제공할 뿐 아니라 적응형 라우팅, 비순차 RDMA 데이터 전송, 동적으로 연결된 전송 및 버스트 버퍼 오프로드에 대한 지원을 제공합니다.

멀티 호스트

NVIDIA Mellanox Multi-Host

ConnectX-5는 성능 저하 없이 최대 4개의 개별 호스트를 지원하여 NVIDIA Mellanox Multi-Host® 기술을 향상시킵니다.

스토리지

스토리지

ConnectX-5는 NVMe-oF 타깃 오프로드를 제공해 CPU 개입 없는 효율적인 NVMe 스토리지 액세스를 지원하여 성능 향상과 지연 시간 단축을 실현함으로써 성능을 더욱 향상시킵니다.

주요 특징

  • 포트당 최대 100Gb/s
  • PCIe Gen4 서버에서 ConnectX-5 Ex를 통해 총 200Gb/s
  • NVIDIA Multi-Host 및 NVIDIA Mellanox Socket Direct® 구성 지원
  • 신뢰할 수 있는 전송에 대한 적응형 라우팅
  • 임베디드 PCIe 스위치
  • 다양한 폼 팩터에서 사용 가능: PCIe 스탠드업, NVIDIA Socket Direct, OCP2.0, OCP3.0, NVIDIA Multi-Host, IC 독립실행형

이점

  • 업계 최고의 처리량, 짧은 지연 시간, CPU 사용률 및 높은 메시지 속도
  • 새로운 MPI 오프로드를 통한 HPC 성능 향상
  • NVMe-oF 오프로드를 포함한 고급 스토리지 기능
  • X86, 전력, Arm 및 GPU 기반 컴퓨팅 및 스토리지 플랫폼 지원

리소스

가장 효율적인 고성능 네트워크를 구축할 수 있는 방법을 알아보세요.

클러스터 구성

네트워킹 과정 수강하기

구매할 준비가 되셨나요?