NDR 400G InfiniBand-Architektur

Extreme Leistung für das Zeitalter der KI im Exascale-Bereich

Netzwerklösungen mit InfiniBand

NVIDIA® Mellanox® InfiniBand Interconnect integriert skalierbare Hochgeschwindigkeitslösungen mit extrem geringer Latenz mit netzwerkinternem Computing, welches die Ausführung von Datenalgorithmen im Netzwerk ermöglicht, und läutet somit die Ära der „datenzentrierten“ Rechenzentren ein. Mit der InfiniBand-Technologie können Supercomputer, künstliche Intelligenz (KI) und Cloud-Rechenzentren in jeder beliebigen Größenordnung arbeiten und gleichzeitig die Betriebskosten sowie die Komplexität ihrer Infrastruktur senken.

InfiniBand-Adapter: Beschleunigung für KI-, Datenwissenschafts- und HPC-Workloads

InfiniBand-Adapter: Beschleunigung für KI-, Datenwissenschafts- und HPC-Workloads

InfiniBand Host-Channel-Adapter (HCAs) bieten dank höherer Geschwindigkeiten und innovativer Hardwarebeschleunigung extrem niedrige Latenzen und fortschrittliche Anwendungsbeschleunigungsengines für High Performance Computing, KI, maschinelles Lernen sowie Cloud-Anwendungen, Speicherung, Datenbanken und eingebettete Anwendungen, wodurch die Kosten pro Arbeitsgang gesenkt und ROI gesteigert werden können.

Programmierbare DPU

Programmierbare DPU

Die NVIDIA Bluefield®-Datenverarbeitungseinheit (DPU) mit fortschrittlicher Software und Programmierbarkeit bietet Rechenzentren gesteigerte Leistung, Sicherheit und Funktionalität für innovative Netzwerk- und E/A-Beschleunigung.

InfiniBand Switches – konkurrenzlose Leistung und Wirtschaftlichkeit in jeder Größenordnung

InfiniBand Switches – konkurrenzlose Leistung und Wirtschaftlichkeit in jeder Größenordnung

InfiniBand Switch-Systeme bieten marktführende Leistung und Portdichte. Innovative Funktionen wie Scalable Hierarchical Aggregation and Reduction Protocol (SHARP) und Self-Healing Interconnect Enhancement for Intelligent Datacenters (SHIELD) sowie verbesserte Servicequalität (QoS), Überlastregelung und adaptives Routing sorgen für die beste Systemleistung, Skalierbarkeit und Netzwerkauslastung.

InfiniBand-to-Ethernet-Router und -Gatewaysysteme

InfiniBand-to-Ethernet-Router und -Gatewaysysteme

InfiniBand-Systeme bieten die höchste Skalierbarkeit und Subnetzisolierung mithilfe von InfiniBand-Routern, InfiniBand-Verbindungen mit hoher Reichweite (NVIDIA Mellanox MetroX®-2) und InfiniBand-to-Ethernet-Gatewaysystemen (NVIDIA Mellanox Skyway™). Letztere ermöglichen eine skalierbare und effiziente Methode, um ein Rechenzentrum mit hoher Leistung und geringer Latenz im Bedarfsfall mit externen Ethernet-Infrastrukturen zu verbinden (z. B. Ethernetspeicher).

LinkX InfiniBand-Kabel und -Transceiver

LinkX InfiniBand-Kabel und -Transceiver

NVIDIA Mellanox LinkX®-Kabel und -Transceiver sind auf die Maximierung der Leistung von HPC-Netzwerken (High Performance Computing) ausgelegt und benötigen Verbindungen mit hoher Bandbreite, geringer Latenz und hoher Zuverlässigkeit zwischen InfiniBand-Elementen.

Erweiterte Funktionen von InfiniBand

Netzwerkinternes Computing

Netzwerkinternes Computing

Das NVIDIA Mellanox Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ verlagert kollektive Kommunikationsabläufe von der CPU in das Switch-Netzwerk. Dieser innovative Ansatz verringert den Datenverkehr im Netzwerk und reduziert die MPI-Arbeitsvorgangszeiten drastisch.

Selbstheilendes Netzwerk

Selbstheilendes Netzwerk

Bei HPC sind Cluster auf eine zuverlässige Hochgeschwindigkeitsverbindung angewiesen. Das selbstheilende Netzwerk von NVIDIA Mellanox InfiniBand behebt Verbindungsausfälle und erlaubt es so, das Netzwerk 5000 mal schneller wiederherzustellen als jede andere softwarebasierte Lösung. Das selbstheilende Netzwerk nutzt die Intelligenz, die bereits in der neuesten Generation von InfiniBand Switches verbaut wurde

Servicequalität

Servicequalität

InfiniBand ist die einzige hochleistungsfähige Verbindungslösung mit bewährten Funktionen für Servicequalität, einschließlich fortschrittlicher Überlastregelung und adaptivem Routing, wodurch eine unübertroffene Netzwerkeffizienz erreicht wird.

Netzwerktopologien

Netzwerktopologien

InfiniBand verfügt über eine umfassende zentralisierte Verwaltung und unterstützt jede Topologie. Zu den beliebtesten Topologien zählen Fat Tree, Hypercube, mehrdimensionaler Torus und DragonFly+. Optimierte Routing-Algorithmen sorgen für optimierte Leistung bei der Entwicklung einer Topologie für bestimmte Anwendungskommunikationsmuster.

Software für optimale Leistung

MLNX_OFED

Das OFED der OpenFabrics Alliance (www.openfabrics.org) wurde in Zusammenarbeit mit führenden Hochleistungs-E/A-Anbietern entwickelt und getestet und dadurch abgehärtet. NVIDIA MLNX_OFED ist eine von NVIDIA getestete und verpackte Version von OFED.

HPC-X

Das NVIDIA Mellanox HPC-X® ScalableHPC-Toolkit ist eine umfassende Softwaresuite für MPI und SHMEM/PGAS. HPC X ermöglicht die schnelle Implementierung und Bereitstellung maximaler Anwendungsleistung ohne die Komplexität und die Kosten für lizenzierte Tools und Bibliotheken von Drittanbietern.

UFM

NVIDIA Mellanox UFM® (Unified Fabric Management)-Plattformen kombinieren erweiterte Echtzeittelemetrie mit KI-gestützter Cyberintelligenz und Analysen, um eine höhere Auslastung der Ressourcen des Fabric und einen Wettbewerbsvorteil zu erzielen und gleichzeitig die OPEX zu reduzieren

MAGNUM IO

Magnum IO nutzt Netzwerk-IO, netzwerkinternes Computing, Speicher und IO-Management, um Datenbewegungen sowie den Zugriff auf und die Verwaltung von Systemen mit mehreren Grafikprozessoren und mehreren Knoten zu vereinfachen und zu beschleunigen. Mit Magnum IO können GPUs und Netzwerkhardwaretopologien von NVIDIA optimalen Durchsatz und niedrige Latenzen erreichen.

Konfigurationswerkzeug

Academy-Onlinekurse

Konnten wir Sie überzeugen?