Socket Direct-Adapter

Maximierung der Rechenzentrumsleistung und Steigerung des ROI

Eine innovative Netzwerkadapterarchitektur – NVIDIA® Mellanox® Socket Direct® – ermöglicht den direkten PCIe-Zugriff auf mehrere CPU-Sockets, sodass kein Netzwerkverkehr den prozessübergreifenden Bus durchlaufen muss. Dies optimiert die Gesamtleistung des Systems und den maximalen Durchsatz für anspruchsvollste Anwendungen und Märkte.

Beseitigen Sie Verkehrsengpässe

Basierend auf nvidia Mellanox  Multi-Host®-Technologie ermöglicht die NVIDIA Mellanox Socket Direct-Technologie mehreren CPUs innerhalb eines Multi-Socket-Servers die direkte Verbindung mit dem Netzwerk, jeweils über eine eigene PCIe-Schnittstelle. Durch einen Verbindungsgurt, der die PCIe-Spuren zwischen zwei Karten aufteilt, oder durch Verzweigung eines PCIe-Steckplatzes für eine einzelne Karte. Dies führt dazu, dass der Netzwerkverkehr, der sich über den internen Bus zwischen den Sockets bewegt, eliminiert wird, wodurch der Overhead und die Latenz erheblich reduziert werden, zusätzlich zur Reduzierung der CPU-Auslastung und der Erhöhung des Netzwerkdurchsatzes. Mellanox Socket Direct verbessert auch die Anwendungsleistung von Anwendungen für künstliche Intelligenz und maschinelles Lernen, da es native GPU-Direct®-Technologien ermöglicht.

NVIDIA Mellanox Socket-Direct-Adapters

Highlights

Vorteile

Geschwindigkeit

Flexible Formfaktoren über mehrere Datengeschwindigkeiten hinweg

  • ConnectX-6 Dx Multi-Host OCP 3.0-Karten können einen 200-GbE-Anschluss mit bis zu 4 PCIe-Gen4-x-4-Steckplätzen verbinden.
  • ConnectX-6 Socket Direct-Karten bieten HDR 200 Gbit/s- oder 200-GbE-Ports über zwei PCIe-Gen3-x-16-Steckplätze.
  • ConnectX-6 OCP3.0-Karten bieten HDR 200 Gbit/s- oder 200-GbE-Ports für bis zu 4 PCIe-Gen4-x-4-Steckplätze.
  • ConnectX-5 Socket Direct-Karten bieten eine Übertragungsrate von EDR 100 Gbit/s oder 100 GbE über zwei PCIe-Gen3-x-8-Steckplätze.
Leistung

Verbesserte Leistung, die einfach zu verwalten ist

Socket Direct-Adapter können mit MCTP über SMBus oder MCTP über PCIe an einen BMC angeschlossen werden, ähnlich einem Standard-NVIDIA PCIe-Stand-up-Adapter. Die gewählte Verwaltungsschnittstelle erleichtert die Kommunikation zwischen der Plattformverwaltung sowie der Subsystemkomponente und die Socket Direct-Adapter können dann über die gewählte Serververwaltungslösung transparent konfiguriert werden.

Socket Direct

Socket Direct entfernt die Last auf den prozessorübergreifenden Bus

Die Socket Direct-Technologie verwendet die gleiche zugrunde liegende Technologie, die Multi Host nur für verschiedene CPUs innerhalb desselben Servers ermöglicht. Beim Vergleich des externen Durchsatzes der Server beim Anwenden der prozessorübergreifenden Last im Vergleich zur Implementierung von Socket Direct wird der Durchsatz im Vergleich zur Standardadapterverbindung mit einer einzelnen CPU um 16–28 % verbessert.

Multi Host und Socket Direct – Vergleich

  MULTI HOST SOCKET DIRECT
Motivation Geringere Investitions- und Betriebskosten Mehr Leistung
Serverkonfiguration Einzelne Server, jeder mit einer eigenen BS-Instanz Einzelner Server mit einem einzelnen BS
PCIe-Signale Individuelle PCIe-Zurücksetzung, Uhr usw. Allgemeine PCIe-Zurücksetzung, Uhr usw.
BMC Unterstützt einzelne BMCs Einzelner BMC
Vorabstart Individuelle Vorabstart-Instanz Einzelne Vorabstart-Instanz

ConnectX-Vergleich

  BESTELLTEIL-NR. MAX. GESCHWINDIGKEIT PORTS ANSCHLÜSSE ASIC- UND PCI-GER.-ID PCI SPUREN
ConnectX-6 Dx MCX623435MN-CDAB 100 GbE 1 QSFP56 ConnectX-6 Dx OCP 3.0, Multi Host oder Socket Direct, PCIe 4.0 x 16 1 x 16/2 x 8/4 x 4
NVIDIA kontaktieren 100 GbE 1 DSFP ConnectX-6 Dx OCP3.0, Multi Host oder Socket Direct, PCIe 4.0 x 16 1 x 16/2 x 8/4 x 4
NVIDIA kontaktieren 100 GbE 1 QSFP56 ConnectX-6 Dx Socket Direct PCIe 4.0 x 16, aufgeteilt in zwei x 8 2 x 8 in einer Reihe
NVIDIA kontaktieren 200 GbE 1 QSFP56 ConnectX-6 Dx OCP3.0, Multi Host oder Socket Direct, PCIe 4.0 x 16 1 x 16/2 x 8/4 x 4
ConnectX-6 VPI MCX653105A-EFAT HDR100, EDR IB (100 Gbit/s) und 100 GbE 1 QSFP56 ConnectX-6 Lx Socket Direct 3.0/4.0 x 16, aufgeteilt in zwei x 8 2 x 8 in einer Reihe
MCX653106A-EFAT HDR100, EDR IB (100 Gbit/s) und 100 GbE 2 QSFP56 ConnectX-6 Socket Direct 3.0/4.0 x 16, aufgeteilt in zwei x 8 2 x 8 in einer Reihe
MCX653106A-EFAT HDR IB (200 Gbit/s) und 200 GbE 1 QSFP56 ConnectX-6 Socket Direct PCIe 3.0 x 16 + PCIe 3.0 x 16 Zusatzkarte 2 x 16
MCX654106A-HCAT HDR IB (200 Gbit/s) und 200 GbE 2 QSFP56 ConnectX-6 Socket Direct PCIe 3.0 x 16 + PCIe 3.0 x 16 Zusatzkarte 2 x 16
ConnectX-5 VPI MCX556M-ECAT-S25 EDR IB (100 Gbit/s) und 100 GbE 2 QSFP28 ConnectX-5 Socket Direct PCIe 3.0 x 8 + PCIe 3.0 x 8 Zusatzkarte, 25-cm-Kabelbaum 2 x 8
MCX556M-ECAT-S35A EDR IB (100 GbIT/s) und 100 GbE 2 QSFP28 ConnectX-5 Socket Direct PCIe 3.0 x 8 + PCIe 3.0 x 8 Zusatzkarte, 35-cm-Kabelbaum 2 x 8

Ressourcen

Wir unterstützen Sie beim Aufbau eines effizienten Hochleistungsnetzwerks.

SmartNIC-Selektor

Academy-Onlinekurse

Konnten wir Sie überzeugen?