NVIDIA InfiniBand-Adapter

Optimierung von Top-Supercomputern und Clouds mit NDR 400 Gb/s

Dank schnellerer Geschwindigkeiten und innovativem In-Network-Computing erzielen die smarten NVIDIA InfiniBand-Adapter extreme Leistung und Skalierung. NVIDIA InfiniBand-Adapter senken die Kosten pro Betrieb und steigern den ROI für High-Performance-Computing (HPC), maschinelles Lernen, erweiterten Speicher, Cluster-Datenbanken, eingebettete E/A-Anwendungen mit geringer Latenz und mehr.

High-Performance Computing, beschleunigt

Smarte NVIDIA® ConnectX® InfiniBand-Adapter mit Beschleunigungs-Engines bieten erstklassige Netzwerkleistung sowie -effizienz und ermöglichen niedrige Latenz, hohen Durchsatz und hohe Nachrichtenraten.

  • Erstklassige Cluster-Leistung
  • Leistungsstarker Netzwerk- und Speicherzugriff
  • Netzwerkinternes Computing
  • Effiziente Nutzung von Rechenressourcen
  • Garantierte Bandbreite und Dienste mit geringer Latenz

Produkte

NVIDIA ConnectX-7 NDR 400Gb/s InfiniBand

ConnectX-7 NDR 400 Gb/s InfiniBand

Der NVIDIA ConnectX-7 NDR 400 Gb/s InfiniBand-Host-Channel-Adapter (HCA) bietet höchste Netzwerkleistung, die für die anspruchsvollsten Workloads der Welt verfügbar ist. Der ConnectX-7 InfiniBand-Adapter bietet extrem geringe Latenz, einen Durchsatz von 400 Gb/s und innovative NVIDIA In-Network Computing-Engines für zusätzliche Beschleunigung, um die Skalierbarkeit und die funktionsreiche Technologie zu ermöglichen, die für Supercomputer, künstliche Intelligenz und Hyperscale-Cloudrechenzentren erforderlich sind.

NVIDIA Mellanox ConnectX-6 VPI HDR/200 GbE

ConnectX-6 VPI HDR/200 GbE

Der NVIDIA Mellanox ConnectX-6 HDR 200 Gb/s InfiniBand-Host-Channel-Adapter (HCA) bietet Hochleistungs- und NVIDIA In-Network Computing-Beschleunigungs-Engines zur Effizienzmaximierung von HPC-, KI-, Cloud-, Hyperscale- und Speicherplattformen.

NVIDIA Mellanox ConnectX-5 VPI EDR/100 GbE

ConnectX-5 VPI EDR/100 GbE

Smarte ConnectX-5 VPI-Adapter mit intelligenten Beschleunigungs-Engines verbessern HPC-, ML-, Datenanalyse-, Cloud- und Speicherplattformen. ConnectX-5-Adapterkarten unterstützen zwei Anschlüsse mit 100 Gb/s InfiniBand (EDR) und Ethernet-Netzwerkverbindung, PCIe Gen3- und Gen4-Serververbindung, eine sehr hohe Nachrichtenrate, PCIe-Switch sowie NVMe-Over-Fabrics-Offloads und sind eine leistungsstarke und kostengünstige Lösung für eine Vielzahl von Anwendungen und Märkten.           

NVIDIA Mellanox ConnectX-4 VPI EDR/100 GbE

ConnectX-4 VPI EDR/100 GbE

ConnectX-4 Virtual Protocol Interconnect (VPI) Smart Adapters unterstützen EDR 100 Gb/s InfiniBand und 100 Gb/s Ethernet-Konnektivität. ConnectX-4 Smart Adapters bieten Rechenzentren hohe Leistung und flexible Lösungen für Plattformen für HPC (High Performance Computing), Clouds, Datenbanken und Speicherung, indem sie eine Bandbreite von 100 Gb/s in einem einzigen Port mit der niedrigsten erhältlichen Latenz, 150 Millionen Nachrichten pro Sekunde und Anwendungshardwareentlastungen kombinieren.

NVIDIA Mellanox ConnectX-3 Pro VPI FDR und 40/56 GbE

ConnectX-3 Pro VPI FDR und 40/56 GbE

ConnectX-3 Pro Smart Adapters mit Virtual Protocol Interconnect (VPI) unterstützen InfiniBand- und Ethernet-Konnektivität mit Hardwareentlastungsmodulen für Overlay-Netzwerke ("Tunneling"). ConnectX-3 Pro bietet hervorragende Leistung und Flexibilität für PCI Express Gen3-Server, die in öffentlichen und privaten Clouds, Unternehmensrechenzentren und bei High Performance Computing eingesetzt werden.

NVIDIA Mellanox OCP-Adapter

OCP-Adapter

Das Open Compute Project beschreibt einen Mezzanine-Formfaktor mit erstklassiger Effizienz, um die höchste Rechenzentrumsleistung zu ermöglichen.

NVIDIA Mellanox Multi-Host-Lösungen

Multi-Host-Lösungen

Die innovative NVIDIA Multi-Host®-Technologie ermöglicht es mehreren Rechen- oder Speicher-Hosts, sich mit einem einzelnen Adapter zu verbinden.

NVIDIA Mellanox Socket-Direct-Adapters

Socket-Direct-Adapters

NVIDIA Socket Direct®-Technologie ermöglicht direkten PCIe-Zugriff auf mehrere CPU-Sockel, sodass Netzwerkdatenverkehr nicht mehr den Inter-Prozess-Bus passieren muss.

Ressourcen

Erfahren Sie, wie Sie das effizienteste Hochleistungsnetzwerk schaffen können.

Ihr Cluster konfigurieren

Nehmen Sie an Networking-Kursen teil

Konnten wir Sie überzeugen?