NVIDIA QUANTUM-2 INFINIBAND-PLATTFORM

Extrem schnelle Leistung für Cloud-natives Supercomputing jeglicher Größenordnung

Netzwerklösungen mit InfiniBand

Komplexe Workloads erfordern ultraschnelle Verarbeitung von hochauflösenden Simulationen, extrem großen Datensätzen und hochgradig parallelisierten Algorithmen. Da diese Computing-Anforderungen weiter wachsen, bietet NVIDIA InfiniBand – die weltweit einzige vollständig Offload-fähige In-Network-Computing-Plattform – den dramatischen Leistungssprung, der erforderlich ist, um eine unübertroffene Leistung in High-Performance-Computing (HPC), KI und Hyperscale-Cloud-Infrastrukturen mit weniger Kosten und Komplexität zu erreichen.

InfiniBand-Adapter

InfiniBand-Adapter

InfiniBand Host-Channel-Adapter (HCAs) bieten eine extrem niedrige Latenz, hohen Durchsatz und innovative NVIDIA In-Network Computing-Engines, um die Beschleunigung, Skalierbarkeit und funktionsreiche Technologie bereitzustellen, die für moderne Workloads erforderlich sind.

Datenverarbeitungseinheiten (DPUs)

Datenverarbeitungseinheiten (DPUs)

Die neue NVIDIA® BlueField®-DPU kombiniert leistungsstarkes Computing, Hochgeschwindigkeitsnetzwerke und umfangreiche Programmierbarkeit, um softwaredefinierte, hardwarebeschleunigte Lösungen für die anspruchsvollsten Workloads bereitzustellen. Von beschleunigtem KI-Computing bis hin zu Cloud-nativem Supercomputing – BlueField definiert die Möglichkeiten neu.

InfiniBand Switches

InfiniBand Switches

InfiniBand Switch-Systeme bieten marktführende Leistung und Portdichte. Innovative Funktionen wie NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ und erweiterte Verwaltungsfunktionen wie selbstheilende Netzwerkfunktionen, Servicequalität, verbessertes Virtual Lane Mapping und NVIDIA In-Network Computing-Beschleunigungs-Engines sorgen für einen Leistungsschub für Industrie-, KI- und wissenschaftliche Anwendungen.

Router und Gateway-Systeme

Router und Gateway-Systeme

InfiniBand-Systeme bieten die höchste Skalierbarkeit und Subnetzisolierung mithilfe von InfiniBand-Routern und InfiniBand-to-Ethernet-Gatewaysystemen. Das Letztere ermöglicht eine skalierbare und effiziente Möglichkeit, um InfiniBand-Rechenzentren mit Ethernet-Infrastrukturen zu verbinden.

LinkX InfiniBand-Kabel und -Transceiver

Kabel und Transceiver

LinkX®-Kabel und -Transceiver sind auf die Maximierung der Leistung von HPC-Netzwerken ausgelegt und benötigen Verbindungen mit hoher Bandbreite, geringer Latenz und hoher Zuverlässigkeit zwischen InfiniBand-Elementen.

Erweiterte Funktionen von InfiniBand

Netzwerkinternes Computing

Netzwerkinternes Computing

Das NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)  verlagert kollektive Kommunikationsabläufe vom Rechennetzwerk in das Switch-Netzwerk. Dieser innovative Ansatz verringert den Datenverkehr im Netzwerk, reduziert die Arbeitsvorgangszeiten für MPI (Message Passing Interfase) drastisch und steigert die  Effizienz des Rechenzentrums. 

Selbstheilendes Netzwerk

Selbstheilendes Netzwerk

Bei HPC und KI sind Cluster auf eine zuverlässige Hochgeschwindigkeitsverbindung angewiesen. Das selbstheilende Netzwerk von NVIDIA InfiniBand behebt Verbindungsausfälle und erlaubt es so, das Netzwerk 1000 mal schneller wiederherzustellen als jede andere softwarebasierte Lösung. Das selbstheilende Netzwerk nutzt die Intelligenz, die in der neuesten Generation von InfiniBand Switches verbaut wurde.

Servicequalität

Servicequalität

InfiniBand ist die einzige hochleistungsfähige Verbindungslösung mit bewährten Funktionen für Servicequalität, einschließlich  fortschrittlicher Überlastregelung und adaptivem Routing, wodurch eine unübertroffene Netzwerkeffizienz erreicht wird.

Netzwerktopologien

Netzwerktopologien

InfiniBand verfügt über eine umfassende zentralisierte Verwaltung und unterstützt jede Topologie. Zu den beliebtesten Topologien zählen Fat Tree, Hypercube, mehrdimensionaler Torus und DragonFly+. Optimierte Routing-Algorithmen sorgen für optimierte Leistung bei der Entwicklung einer Topologie für bestimmte Anwendungskommunikationsmuster.

Software für optimale Leistung

MLNX_OFED

Das OFED der OpenFabrics Alliance (www.openfabrics.org) wurde in Zusammenarbeit mit führenden Hochleistungs-IO (Input/Output)-Anbietern entwickelt und getestet und dadurch abgehärtet. NVIDIA MLNX_OFED ist eine von NVIDIA getestete und verpackte Version von OFED.

HPC-X

NVIDIA HPC-X® ist eine umfassende Softwaresuite für MPI und SHMEM/PGAS. HPC-X nutzt InfiniBand In-Network Computing und Beschleunigungs-Engines, um Forschungs- und Industrieanwendungen zu optimieren.

UFM

Die NVIDIA UFM®-Plattform ermöglicht Rechenzentrumsadministratoren die effiziente Bereitstellung, Überwachung, Verwaltung und proaktive Fehlerbehebung ihrer InfiniBand-Netzwerkinfrastruktur.

MAGNUM IO

NVIDIA Magnum IO nutzt Netzwerk-IO, netzwerkinternes Computing, Speicher und IO-Management, um Datenbewegungen sowie den Zugriff auf und die Verwaltung von Systemen mit mehreren Grafikprozessoren und mehreren Knoten zu vereinfachen und zu beschleunigen. Mit Magnum IO können GPUs und Netzwerkhardwaretopologien von NVIDIA optimalen Durchsatz und niedrige Latenzen erreichen.

Ihr Cluster konfigurieren

Netzwerkkurse besuchen

Konnten wir Sie überzeugen?

Ressourcen

  • VIDEOS
  • LÖSUNGSÜBERSICHTEN