Konvergierte Beschleuniger von NVIDIA

Kombinieren Sie hohe Leistung, verbesserte Netzwerke und robuste Sicherheit – in einem Paket.

Schnellere, sicherere KI-Systeme

In einer einzigartigen, effizienten Architektur verbinden konvergierte Beschleuniger von NVIDIA die starke Leistung von NVIDIA-Grafikprozessoren mit dem verbesserten Netzwerk und der Sicherheit von NVIDIA Smart Network Interface Cards (SmartNICs) und Datenverarbeitungseinheiten (DPUs). Maximale Leistung und erhöhte Sicherheit für E/A-intensive, GPU-beschleunigte Workloads vom Rechenzentrum bis zum Edge.

Nie dagewesene GPU-Leistung

NVIDIA Tensor Core-GPUs bieten beispiellose Leistung und Skalierbarkeit für KI, High Performance Computing (HPC), Datenanalysen und andere rechenintensive Workloads. Mit dem Mehr-Instanzen-Grafikprozessor (MIG) kann jeder Grafikprozessor in mehrere GPU-Instanzen aufgeteilt werden – vollständig isoliert und auf Hardwareebene gesichert. Systeme können so konfiguriert werden, dass sie eine passende GPU-Beschleunigung für eine optimale Auslastung bieten und die gemeinsame Nutzung über große und kleine Anwendungen in Bare-Metal- und virtualisierten Umgebungen hinweg ermöglichen.

Verbesserte Netzwerke und Sicherheit

Die NVIDIA® ConnectX®-Familie der Smart Network Interface Cards (SmartNICs) bietet erstklassige Netzwerkleistung, fortschrittliche Hardwareentlastung und -beschleunigung. NVIDIA BlueField-DPUs® verbinden die Leistung von ConnectX mit vollständiger Programmierbarkeit der Infrastructure-on-Chip. Da sie Netzwerk-, Speicher- und Sicherheitsdienste auslagern, beschleunigen und isolieren, bieten BlueField-DPUs eine sichere und beschleunigte Infrastruktur für alle Workloads in jeder Umgebung.

Ein neues Maß an Dateneffizienz

Konvergierte Beschleuniger von NVIDIA verfügen über einen integrierten PCIe-Switch, mit dem Daten zwischen GPU und Netzwerk übertragen werden können, ohne das PCIe-System des Servers zu durchlaufen. Dies ermöglicht bei E/A-intensiven, GPU-beschleunigten Workloads ein neues Maß an Leistung, Effizienz und Sicherheit im Rechenzentrum.

Ein leistungsfähigeres, sichereres Unternehmen

Hochleistungs-5G

NVIDIA Aerial dient dem Aufbau leistungsstarker, softwaredefinierter, cloud-nativer 5G-Netzwerke, um die steigende Nutzernachfrage zu decken. Es ermöglicht GPU-beschleunigte Signal- und Datenverarbeitung für 5G Virtual Radio Access Networks (vRANs). Konvergierte Beschleuniger von NVIDIA sind die leistungsstärkste Plattform für die Ausführung von 5G-Workloads. Da die Daten nicht das Host-PCIe-System durchlaufen müssen, wird die Verarbeitungslatenz erheblich reduziert. Der daraus resultierende höhere Durchsatz ermöglicht eine höhere Teilnehmerdichte pro Server.

Schnelleres 5G
KI-basierte Cybersicherheit

KI-basierte Cybersicherheit

Konvergierte Beschleuniger eröffnen neue Möglichkeiten für KI-basierte Cybersicherheit und Netzwerke. Die Arm-Kerne der DPU können mit dem NVIDIA Morpheus-Anwendungsframework programmiert werden, um GPU-beschleunigte erweiterte Netzwerkfunktionen wie Bedrohungserkennung, Verhinderung von Datenlecks und Erkennung anomalen Verhaltens auszuführen. Die GPU-Verarbeitung kann mit einer hohen Datenrate direkt auf den Netzwerkverkehr angewendet werden. Die Daten werden auf einem direkten Pfad zwischen GPU und DPU übertragen, was bessere Isolierung bietet.

Beschleunigen von AI-on-5G am Edge

NVIDIA AI-on-5G besteht aus der NVIDIA EGX-Plattform, dem NVIDIA Aerial SDK für softwaredefinierte 5G Virtual Radio Area Networks (vRANs) und KI-Frameworks für Unternehmen, einschließlich SDKs wie NVIDIA Isaac und NVIDIA Metropolis. Diese Plattform ermöglicht es Edge-Geräten wie Videokameras und industriellen Sensoren sowie Robotern, KI zu nutzen und über 5G mit dem Rechenzentrum zu kommunizieren. Konvergierte Karten ermöglichen es, all diese Funktionen in einem einzigen Unternehmensserver bereitzustellen, ohne kostspieligere, speziell entwickelte Systeme bereitstellen zu müssen. Die gleiche konvergierte Karte, die zur Beschleunigung der 5G-Signalverarbeitung verwendet wird, kann auch für Edge-KI verwendet werden, wobei Multi-Instance GPU-Technologie (MIG) von NVIDIA es ermöglicht, die GPU für mehrere verschiedene Anwendungen aufzuteilen.

NVIDIA AI-on-5G
Ausgewogenes, optimiertes Design

Ausgewogenes, optimiertes Design

Die Integration von GPU, DPU und PCIe-Switch in einem einzelnen Gerät erzeugt von Natur aus eine ausgewogene Architektur. In Systemen, in denen mehrere GPUs und DPUs gewünscht sind, vermeidet eine konvergierte Beschleunigerkarte Konflikte auf dem PCIe-System des Servers, sodass die Leistung mit zusätzlichen Geräten linear skaliert. Außerdem ist die Leistung durch konvergierte Karten deutlich besser vorhersehbar. Diese Komponenten auf eine physische Karte auszulagern, verbessert zudem den Platzbedarf und die Energieeffizienz. Konvergierte Karten vereinfachen die Bereitstellung und die fortwährende Wartung erheblich, insbesondere bei der Installation in massenorientierten Servern in großem Maßstab.

Entdecken Sie die konvergierten Beschleuniger von NVIDIA

Dieses Gerät ermöglicht die Ausführung von datenintensiven Workloads im Edge und im Rechenzentrum bei maximaler Sicherheit und Leistung.

NVIDIA A30X und A100X

NVIDIA A30X und A100X

Die NVIDIA A30X kombiniert die NVIDIA A30 Tensor-Core-GPU mit der BlueField-2-DPU. Mit MIG kann die GPU in bis zu vier GPU-Instanzen partitioniert werden, auf denen jeweils ein separater Dienst ausgeführt wird.

Das Design dieser Karte bietet eine gute Balance zwischen Rechen- und E/A-Leistung für Anwendungsfälle wie 5G vRAN und KI-basierte Cybersicherheit.

Die NVIDIA A100X vereint die Leistung der NVIDIA A100 Tensor-Core-GPU mit der BlueField-2-DPU. Mit MIG kann jede A100 in bis zu sieben GPU-Instanzen partitioniert werden, sodass noch mehr Dienste gleichzeitig ausgeführt werden können.

A100X ist ideal für Anwendungsfälle mit intensiveren Rechenanforderungen. Beispiele hierfür sind 5G mit umfangreichen MIMO-Funktionen (Multiple-Input and Multiple-Output), AI-on-5G-Bereitstellungen und spezialisierte Workloads wie Signalverarbeitung.

NVIDIA H100 CNX

NVIDIA H100 CNX

Die NVIDIA H100 CNX kombiniert die Leistung der NVIDIA H100 Tensor-Core-GPU mit den fortschrittlichen Netzwerkfunktionen der NVIDIA ConnectX-7-SmartNIC. Die NVIDIA H100 bietet nie dagewesene Leistung, Skalierbarkeit und Sicherheit für jedes Rechenzentrum. Sie beschleunigt Exascale-Workloads mit einer dedizierten Transformer-Engine für Billionen-Parameter-Sprachmodelle und für kleine Jobs kann sie auf bis zu sieben MIG-Instanzen der richtigen Größe partitioniert werden. Mit NVIDIA Accelerated Confidential Computing (NACC) kann diese skalierbare Rechenleistung sensible Anwendungen in einer gemeinsamen Rechenzentrumsinfrastruktur sichern. ConnectX-7 bietet eine Bandbreite von bis zu 400 Gigabit pro Sekunde (GB/s) und beinhaltet innovative Funktionen wie NVIDIA ASAP2 (Accelerated Switching and Packet Processing™) und In-Line-Hardwarebeschleunigung zur Ver- und Entschlüsselung.

Die einzigartige Architektur der H100 CNX bietet beispiellose Leistung für GPU-gestützte, IO-intensive Workloads, z. B. verteiltes KI-Training in Unternehmensrechenzentren und 5G-Signalverarbeitung am Edge.

Registrieren Sie sich für das NVIDIA Entwicklerkit für konvergierte Beschleuniger

Sind Sie daran interessiert, die nächste Generation von Edge-KI- und Cybersicherheitsanwendungen zu erstellen? Sie möchten einer der Ersten sein, der die neuen konvergierten Beschleuniger in der Praxis erlebt? Melden Sie sich an, um frühzeitig Informationen zum Entwicklerkit für konvergierte Beschleuniger sowie Zugriff auf Hardware- und Softwarekomponenten zu erhalten.

Bleiben Sie auf dem neuesten Stand

Melden Sie sich an, um aktuelle Informationen und Ressourcen zu konvergierten Beschleunigern von NVIDIA EGX direkt in Ihrem Posteingang zu erhalten.