NDR 400Gb/s InfiniBand Architektur

Extrem schnelle Leistung für das Zeitalter der KI im Exascale-Bereich

Rekordleistung in der Netzwerkkommunikation

Die siebte Generation der NVIDIA InfiniBand-Architektur mit NDR 400GB/s bietet KI-Entwicklern und -Forschern die schnellste verfügbare Netzwerkleistung, um die weltweit herausforderndsten Aufgaben anzugehen. NDR InfiniBand mit softwaredefiniertem Netzwerk, Remote-Direktspeicherzugriff (RDMA), netzwerkinternem Computing, fortschrittlichen Beschleunigungs-Engines und den höchsten Geschwindigkeiten und schnellsten Datenfeeds unterstützt die weltweit führenden Supercomputing-Rechenzentren.

nvidia-networking-ndr-technology-numbers-1cn-d

Verbesserungen für Supercomputer und Anwendungen in den Bereichen HPC und KI

Beschleunigtes netzwerkinternes Computing

Heutige High Performance Computing(HPC)-, KI- und Hyperskalierungsinfrastrukturen benötigen schnellere Verbindungen und intelligentere Netzwerke, um Daten zu analysieren und komplexe Simulationen schneller und effizienter auszuführen. NVIDIA Mellanox Infiniband verbessert und erweitert netzwerkinternes Computing um vorkonfigurierte und programmierbare Berechnungsengines, beispielsweise NVIDIA Mellanox Scalable Hierarchical Aggregation and Reduction Protocol der dritten Generation (SHARPv3), MPI Tag Matching, MPI All-to-All sowie programmierbare Recheneinheiten, um die geringsten Kosten pro Knoten und das beste ROI zu bieten.

Beschleunigung von netzwerkinternem Computing durch NVIDIA Mellanox Infiniband-Architektur
Rechenzentrum mit NVIDIA Mellanox NDR InfiniBand-Architektur mit SHARPv3-Technologie

Grenzenlose Skalierbarkeit

NDRInfiniBand mit SHARPv3 sorgt für nahezu unbegrenzte Skalierbarkeit bei großer Datenaggregation über das Netzwerk und unterstützt bis zu 64 parallele Ströme – 32-fach höhere KI-Beschleunigung im Vergleich zur Vorgängergeneration HDRInfiniBand. MPIAll-to-All- und MPITagMatching-Hardwareengines sowie weitere Funktionen wie verbesserte Überlastregelung, adaptives Routing und ein selbstheilungsfähiges Netzwerk bieten wichtige Verbesserungen für HPC- und KI-Cluster, sodass sie eine noch höhere Leistung erzielen können.

Daten mit Lichtgeschwindigkeit liefern

Host-Channel-Adapter

Der NVIDIA ConnectX-7 NDR 400GB/s InfiniBand Host-Channel-Adapter (HCA) bietet die höchste verfügbare Netzwerkleistung, um die anspruchsvollsten Workloads der Welt zu bewältigen.

NDR InfiniBand HCAs mit PCIe Gen4 und Gen5 sind mit verschiedenen Formfaktoren kompatibel und liefern ein- oder zweifache Netzwerkports mit 400 Gigabit pro Sekunde (GB/s).

Die NDR InfiniBand HCAs beinhalten erweiterte netzwerkinterne Computing-Funktionen mit MPI All-to-All und MPI Tag Matching-Hardware-Engines. Weitere Verbesserungen des Fabrics beinhalten für eine verbesserte Servicequalität (QoS) adaptives Routing und Überlastungsmanagement. Die HCAs enthalten zusätzliche programmierbare Engines, die die Vorverarbeitung von Datenalgorithmen ermöglichen und Anwendungssteuerungspfade in das Netzwerk auslagern. Dies sorgt für eine höhere Leistung und Skalierbarkeit und verbessert die Überlappung zwischen Computing und Kommunikation.

Switches mit fester Konfiguration

Die NDR InfiniBand-eigenen Switches mit fester Konfiguration verfügen über 64 NDR-Ports oder 128 NDR200-Ports auf physischen 32 Octal Small Form-factor-Anschlüssen (OSFP). Das kompakte 1U Switch-Design ist in luft- und flüssigkeitsgekühlten Versionen verfügbar, die intern oder extern verwaltet werden.

Die NDR InfiniBand-eigenen Switches mit fester Konfiguration bieten einen aggregierten bidirektionalen Durchsatz von 51,2 Terabit pro Sekunde (Tb/s) und eine Kapazität von mehr als 66,5 Milliarden Paketen pro Sekunde. Die Switches sind die ideale Rack-montierte InfiniBand-Lösung und bieten maximale Flexibilität für verschiedene Topologien, darunter Fat Tree, DragonFly+, mehrdimensionaler Torus, Hypercube und viele mehr.

Modulare Switches

Durch die NDR InfiniBand-eigenen modularen Switches stehen folgende Portkonfigurationen zur Verfügung:

  • 2.048 NDR-Ports (400 Gb/s) oder 4.096 NDR200-Ports (200 Gb/s)
  • 1.024 NDR-Ports (400 Gb/s) oder 2.048 NDR200-Ports (200 Gb/s)
  • 512 NDR-Ports (400 Gb/s) oder 1.024 NDR200-Ports (200 Gb/s)

Der größte modulare Switch verfügt über einen gesamten bidirektionalen Durchsatz von 1,64 Petabit pro Sekunde, 5-mal höher als beim modularen HDR InfiniBand Switch der Vorgängergeneration.

Transceiver und Kabel

Die Verbindungsoptionen des NDR InfiniBand umfassen eine Vielzahl an Transceivern und MPO-Anschlüssen (Multi-Fiber Push-On), aktive Kupferkabel (ACCs) und Direktanschlusskabel (DACs) mit 1–2 oder 1–4 Splitting-Optionen. Dies sorgt für maximale Flexibilität, um jede Topologie mit bester Leistung zu bieten.

Weltweit führende Netzwerkleistung, Skalierbarkeit und Effizienz

Leistung

  • 400 Gb/s Bandbreite pro Port
  • 64 NDR 400 Gb/s Ports oder 128 NDR200 200 Gb/s Ports in einem einzelnen Switch
  • 2.048 NDR Ports oder 4.096 NDR200 Ports in einem einzelnen modularen Switch
  • Über 66,5 Milliarden Pakete pro Sekunde (bidirektional) auf einem einzelnen NDR Switch-Gerät

Wir brechen unsere eigenen Rekorde

  • 2-fache Bandbreite pro Port gegenüber HDR
  • 3-fache Switch-Radix gegenüber HDR
  • 32-fach höhere KI-Beschleunigung pro Schalter gegenüber HDR
  • Mehr als eine Million Knoten mit 400 GB/s in einem DragonFly+-Netzwerk mit vier Switches (drei Hops), 6,5-mal höher als bei HDR

Wichtigste Features

  • Volle Transportverlagerung
  • RDMA, GPUDirect® RDMA, GPUDirect Storage
  • Programmierbare Engines für netzwerkinternes Computing
  • MPI All-to-All-Hardwarebeschleunigung
  • MPI Tag Matching-Hardwarebeschleunigung
  • NVIDIA SHARPv3
  • Fortgeschrittenes adaptives Routing, Überlastregelung und QoS
  • Selbstheilendes Netzwerk

Lesen Sie die vollständige Architekturübersicht, um mehr über den NDR zu erfahren.