NDR 400G InfiniBand-Architektur

Extrem schnelle Leistung für das Zeitalter der KI im Exascale-Bereich

Rekordleistung in der Netzwerkkommunikation

Die siebte Generation der NVIDIA® Mellanox® InfiniBand-Architektur mit NDR 400 Gb/s InfiniBand bietet Entwicklern und Forschern die schnellste Netzwerkleistung, um die schwierigsten Probleme der Welt zu lösen. NVIDIA Mellanox InfiniBand® ebnet den Weg mit softwaredefinierter Vernetzung, Beschleunigung für netzwerkinternes Computing, direktem Remotezugriff auf den Speicher (RDMA) sowie den höchsten Geschwindigkeiten und schnellsten Datenfeeds – einschließlich beeindruckender Verbesserungen gegenüber der Vorgängergeneration HDR InfiniBand.

 

Das neue NVIDIA NDR 400 Gb/s InfiniBand (1:48)

Verbesserungen für Supercomputer und Anwendungen in den Bereichen HPC und KI

Beschleunigtes netzwerkinternes Computing

Heutige High Performance Computing(HPC)-, KI- und Hyperskalierungsinfrastrukturen benötigen schnellere Verbindungen und intelligentere Netzwerke, um Daten zu analysieren und komplexe Simulationen schneller und effizienter auszuführen. NVIDIA Mellanox Infiniband verbessert und erweitert netzwerkinternes Computing um vorkonfigurierte und programmierbare Berechnungsengines, beispielsweise NVIDIA Mellanox Scalable Hierarchical Aggregation and Reduction Protocol der dritten Generation (SHARPv3), MPI Tag Matching, MPI All-to-All sowie programmierbare Recheneinheiten, um die geringsten Kosten pro Knoten und das beste ROI zu bieten.

Beschleunigung von netzwerkinternem Computing durch NVIDIA Mellanox Infiniband-Architektur
Rechenzentrum mit NVIDIA Mellanox NDR InfiniBand-Architektur mit SHARPv3-Technologie

Grenzenlose Skalierbarkeit

NDRInfiniBand mit SHARPv3 sorgt für nahezu unbegrenzte Skalierbarkeit bei großer Datenaggregation über das Netzwerk und unterstützt bis zu 64 parallele Ströme – 32-fach höhere KI-Beschleunigung im Vergleich zur Vorgängergeneration HDRInfiniBand. MPIAll-to-All- und MPITagMatching-Hardwareengines sowie weitere Funktionen wie verbesserte Überlastregelung, adaptives Routing und ein selbstheilungsfähiges Netzwerk bieten wichtige Verbesserungen für HPC- und KI-Cluster, sodass sie eine noch höhere Leistung erzielen können.

Daten mit Lichtgeschwindigkeit liefern

Host-Channel-Adapter

NDR InfiniBand Host-Channel-Adapter (HCAs) mit PCIe Gen4 und Gen5 sind mit verschiedene Formfaktoren kompatibel und liefern ein- oder zweifache Netzwerkports mit 400 Gigabit pro Sekunde (Gb/s) für NDR, 200 Gb/s für NDR200 und niedrigere Geschwindigkeiten.

NDR InfiniBand HCAs bieten erweiterte Funktionen für netzwerkinternes Computing mit MPI All-to-All- und MPI Tag Matching-Hardwareengines sowie weitere Verbesserungen des Fabrics für verbesserte Servicequalität (QoS), einschließlich adaptivem Routing, Überlastregelung und mehr. Die HCAs besitzen außerdem programmierbare Rechenkerne, die das Verlagern von vorverarbeitenden Datenalgorithmen und Anwendungssteuerungspfaden in das Netzwerk ermöglichen, wodurch eine höhere Leistung, Skalierbarkeit sowie eine bessere Überlappung zwischen Computing und Kommunikation erreicht wird.

Edge Switches

Die NDR InfiniBand-eigenen Edge Switches verfügen über 64 NDR-Ports oder 128 NDR200-Ports auf physischen 32 Octal Small Form-factor-Anschlüssen (OSFP). Die kompakten 1U Edge Switches sind in luft- und flüssigkeitsgekühlten Versionen verfügbar, die intern oder extern verwaltet werden.

Die NDR InfiniBand-eigenen Edge Switches bieten einen aggregierten bidirektionalem Durchsatz von 51,2 Terabit pro Sekunde (Tb/s) und eine Kapazität von mehr als 66,5 Milliarden Paketen pro Sekunde. Der NDR InfiniBand Edge Switch ist die ideale Rack-montierte InfiniBand-Lösung und bietet maximale Flexibilität für verschiedene Topologien, darunter Fat Tree, DragonFly+, mehrdimensionaler Torus, Hypercube und viele mehr.

Modulare Switches

Durch die NDR InfiniBand-eigenen modularen Switches stehen folgende Portkonfigurationen zur Verfügung:

  • 2.048 NDR-Ports (400 Gb/s) oder 4.096 NDR200-Ports (200 Gb/s)
  • 1.024 NDR-Ports (400 Gb/s) oder 2.048 NDR200-Ports (200 Gb/s)

Der größte modulare Switch verfügt über einen gesamten bidirektionalen Durchsatz von 1,64 Petabit pro Sekunde, 5 mal höher als beim modularen HDR InfiniBand Switch der Vorgängergeneration.

Der mittelgroße modulare Switch bietet einen gesamten bidirektionalen Durchsatz von 819 Tb/s.

Transceiver und Kabel

Die Verbindungsoptionen des NDR InfiniBand umfassen eine Vielzahl an Transceivern und MPO-Anschlüssen (Multi-Fiber Push-On), aktive Kupferkabel (ACCs) und Direktanschlusskabel (DACs) mit eins-zu-zwei oder eins-zu-vier Splitting-Optionen, um maximale Flexibilität beim Aufbau jeder Topologie mit bester Leistung zu bieten.

Weltweit führende Netzwerkleistung, Skalierbarkeit und Effizienz

Leistung

  • 400 Gb/s Bandbreite pro Port
  • 64 NDR 400 Gb/s Ports oder 128 NDR200 200 Gb/s Ports in einem einzelnen Switch
  • 2.048 NDR Ports oder 4.096 NDR200 Ports in einem einzelnen modularen Switch
  • Über 66,5 Milliarden Pakete pro Sekunde (bidirektional) auf einem einzelnen NDR Switch-Gerät

Wir brechen unsere eigenen Rekorde

  • 2-fache Bandbreite pro Port gegenüber HDR
  • 3-fache Switch-Radix gegenüber HDR
  • 32-fach höhere KI-Beschleunigung pro Switch gegenüber HDR
  • Mehr als eine Million Knoten mit 400 GB/s in einem DragonFly+-Netzwerk mit vier Switches (drei Hops), 6,5 mal höher als bei HDR InfiniBand

Wichtigste Features

  • Volle Transportverlagerung
  • RDMA, GPUDirect® RDMA, GPUDirect Storage
  • Programmierbare Engines für netzwerkinternes Computing
  • MPI All-to-All-Hardwarebeschleunigung
  • MPI Tag Matching-Hardwarebeschleunigung
  • NVIDIA Mellanox SHARPv3
  • Fortgeschrittenes adaptives Routing, Überlastregelung und QoS
  • Selbstheilendes Netzwerk

Lesen Sie die vollständige Architekturübersicht, um mehr über den NDR zu erfahren.