NVIDIA HGX-KI-Supercomputer

Die leistungsstärkste durchgängige Plattform für KI-Supercomputing.

Speziell für die Konvergenz von Simulationen, Datenanalysen und KI entwickelt.

Massive Datensätze, riesige Modelle beim Deep Learning und komplexe Simulationen erfordern mehrere Grafikprozessoren mit extrem schnellen Verbindungen und einem vollständig beschleunigten Softwarestack. Die NVIDIA HGX™-KI–Supercomputing-Plattform vereint die volle Leistung von NVIDIA-Grafikprozessoren, NVIDIA® NVLink®, NVIDIA InfiniBand-Netzwerken und einem vollständig optimierten NVIDIA KI- und HPC-Softwarestack aus dem NVIDIA NGC™-Katalog für höchste Anwendungsleistung. Dank der durchgängigen Leistung und Flexibilität ermöglicht es NVIDIA HGX Forschern und Wissenschaftlern, Simulationen, Datenanalysen und KI zu kombinieren, um wissenschaftlichen Fortschritt voranzutreiben.

Unerreichte End-to-End-Plattform für beschleunigtes Computing

NVIDIA HGX stellt mit NVIDIA A100 Tensor Core-GPUs und Hochgeschwindigkeitsverbindungen die leistungsstärksten Server der Welt dar. Dank 16 A100-GPUs bietet HGX A100 bis zu 1,3 Terabyte (TB) Grafikspeicher und eine Speicherbandbreite von über 2 Terabyte pro Sekunde (Tb/s) und erzielt somit nie dagewesene Beschleunigung.

Im Vergleich zu Vorgängergenerationen bietet HGX mit Tensor Float 32 (TF32) bis zu 20-fache KI-Beschleunigung und HPC eine 2,5-fache Beschleunigung mit FP64. NVIDIA HGX leistet atemberaubende 10 PetaFLOPS und ist somit die leistungsstärkste beschleunigte und vertikal skalierbare Serverplattform für KI und HPC.

Die HGX wurde umfassend getestet und ist einfach bereitzustellen. Sie wird für garantierte Leistung mit Partnerservern integriert. Die HGX-Plattform ist sowohl als 4-GPU- als auch als 8-GPU-HGX-Hauptplatinen mit SXM-GPUs verfügbar. Sie ist ebenfalls als PCIe-GPUs für eine modulare Bereitstellungsoption erhältlich, die die höchste Rechenleistung auf Mainstream-Servern bietet.

HGX Stack

NVIDIA HGX A100 (mit 8 A100-Grafikprozessoren)

NVIDIA HGX A100 (mit 8 A100-Grafikprozessoren)

NVIDIA HGX A100 (mit 4 A100-Grafikprozessoren)

NVIDIA HGX A100 (mit 4 A100-Grafikprozessoren)

Deep-Learning-Leistung

Leistung des maschinellen Lernens

2-mal schneller als A100 40 GB im Big Data Analytics-Benchmark

2X Faster than A100 40GB on Big Data Analytics Benchmark

Modelle für maschinelles Lernen erfordern das Laden, Umwandeln und Verarbeiten sehr großer Datensätze, um Erkenntnisse zu erlangen. Mit über 1,3 TB vereinheitlichtem Speicher und der multilateralen GPU-Kommunikation über NVSwitch verfügt HGX 80 GB über die Leistung, Berechnungen riesiger Datensätze zu laden und durchzuführen, um schnell handlungsorientierte Erkenntnisse zu erlangen.

In einem großen Datenanalyse-Benchmark erzielte die A100 80 GB Erkenntnisse mit 2-fach höherem Durchsatz als die A100 40 GB, womit sie ideal für zunehmende Workloads mit stetig wachsenden Datensätzen ist.

HPC-Leistung

HPC-Anwendungen müssen jede Sekunde enorme Mengen an Berechnungen durchführen. Durch die drastische Erhöhung der Rechendichte jedes Server-Knotens wird die Anzahl der erforderlichen Server erheblich reduziert. Dies führt zu großen Kosteneinsparungen und senkt den Platz- und Energiebedarf in Rechenzentren. Für HPC-Simulationen und die damit verbundene hochdimensionale Matrix-Multiplikation muss ein Prozessor Daten aus vielen Umgebungen für die Berechnung abrufen. Daher ist die Verbindung der Grafikprozessoren durch NVLink ideal. HPC-Anwendungen können auch TF32 in A100 nutzen und erreichen so in vier Jahren einen bis zu 11-mal höheren Durchsatz bei dichten Matrixmultiplikationsaufgaben mit einfacher Genauigkeit

Eine HGX A100 mit A100 80 GB-GPUs bietet eine zweifache Durchsatzsteigerung gegenüber A100 40 GB-GPUs in Quantum Espresso, einer Materialsimulation, und führt so zu schnellerem Erkenntnisgewinn.

11-mal mehr Leistung bei HPC in vier Jahren

Führende HPC-Anwendungen

11-mal mehr Leistung bei HPC  in vier Jahren

Bis zu 1,8-mal schnellere Leistung für HPC-Anwendungen

Quantum Espresso​

Bis zu 1,8-mal schnellere Leistung  für HPC-Anwendungen

Technische Daten zu HGX A100

NVIDIA HGX ist als einzelne Hauptplatine mit vier oder acht A100-GPUs mit jeweils 40 GB oder 80 GB GPU-Speicher erhältlich. Die Konfiguration mit 4 Grafikprozessoren ist vollständig mit NVIDIA NVLink® verbunden, und die Konfiguration mit 8 Grafikprozessoren ist über NVSwitch miteinander verbunden. Zwei NVIDIA HGX A100-Hauptplatinen können mit einer NVSwitch-Verbindung kombiniert werden, um einen leistungsstarken Einzelknoten mit 16 Grafikprozessoren zu erstellen.

HGX ist auch in einem PCIe-Formfaktor als einfach bereitzustellende Option verfügbar, die höchste Rechenleistung auf Mainstream-Servern mit jeweils 40 GB oder 80 GB GPU-Speicher bietet.

Diese leistungsstarke Kombination aus Hard- und Software legt den Grundstein für die ultimative KI-Supercomputing-Plattform.

  A100 PCIe 4-GPU 8-GPU 16-GPU
GPUs 1x NVIDIA A100 PCIe HGX A100 4-GPU HGX A100 8-GPU 2x HGX A100 8-GPU
Formfaktor PCIe 4x NVIDIA A100 SXM 8x NVIDIA A100 SXM 16x NVIDIA A100 SXM
HPC- und KI-Berechnungen (FP64/TF32*/FP16*/INT8* 19.5TF/312TF*/624TF*/1.2POPS* 78TF/1.25PF*/2.5PF*/5POPS* 156TF/2.5PF*/5PF*/10POPS* 312TF/5PF*/10PF*/20POPS*
Arbeitsspeicher 40 oder 80 GB pro GPU Bis zu 320 GB Bis zu 640 GB Bis zu 1.280 GB
NVLink Dritte Generation Dritte Generation Dritte Generation Dritte Generation
NVSwitch N/A N/A Zweite Generation Zweite Generation
NVSwitch-Bandbreite für Verbindungen zwischen GPUs N/A N/A 600GB/s 600GB/s
Gesamte aggregierte Bandbreite 600GB/s 2,4 TB/s 4,8 TB/s 9,6 TB/s

Beschleunigung von HGX mit NVIDIA Networking

Mit HGX ist es auch möglich, NVIDIA-Netzwerke einzubeziehen, um Datenübertragungen zu beschleunigen und zu entlasten und die volle Nutzung der Rechenressourcen sicherzustellen. Smart Adapters und Switches reduzieren die Latenz, steigern die Effizienz, erhöhen die Sicherheit und vereinfachen die Automatisierung von Rechenzentren, sodass die Leistung von End-to-End-Anwendungen beschleunigt wird.

Das Rechenzentrum ist die Recheneinheit der Zukunft und HPC-Netzwerke spielen eine wesentliche Rolle bei der Skalierung der Anwendungsleistung im gesamten Rechenzentrum. NVIDIA InfiniBand ebnet den Weg mit softwaredefinierten Netzwerken, Beschleunigungsmodulen mit netzwerkinternem Computing, Remote-Direktspeicherzugriff (RDMA) und den höchsten Geschwindigkeiten und schnellsten Datenfeeds.

Referenzarchitekturen HGX-1 und HGX-2

Mit NVIDIA-Grafikprozessoren und NVLINK

NVIDIA HGX-1 und HGX-2 sind Referenzarchitekturen, die das Design von Rechenzentren standardisieren und so KI und HPC beschleunigen. Mit NVIDIA SXM2 V100-Boards und NVIDIA NVLink- sowie NVSwitch-Verbindungstechnologien, verfügen HGX Referenzarchitekturen über ein modulares Design, das problemlos in Hyperscale- und Hybrid-Rechenzentren funktioniert, um bis zu 2 petaFLOPS Rechenleistung für schnelle und einfache KI und HPC zu bieten.

Mit NVIDIA-Grafikprozessoren und NVLINK

Technische Daten

8-GPU
HGX-1 
16-GPU
NVIDIA HGX-2 zu informieren 
Grafikprozessoren 8x NVIDIA V100 16x NVIDIA V100
KI-Rechenleistung 1 petaFLOPS (FP16) 2 petaFLOPS (FP16)
Arbeitsspeicher 256 GB 512 GB
NVLink 2. Generation 2. Generation
NVSwitch N/A Ja
NVSwitch-Bandbreite für Verbindungen zwischen GPUs N/A 300 GB/s
Gesamte aggregierte Bandbreite 2,4 TB/s 4,8 TB/s

Einblick in die NVIDIA Ampere-Architektur

Lesen Sie diese technische Abhandlung und erfahren Sie, was bei der NVIDIA Ampere-Architektur und ihrer Implementierung im NVIDIA A100-Grafikprozessor neu ist.