NVIDIA HGX-KI-Supercomputer

Die leistungsstärkste durchgängige Plattform für KI-Supercomputing.

Speziell für die Konvergenz von Simulationen, Datenanalysen und KI entwickelt.

Massive Datensätze, riesige Modelle beim Deep Learning und komplexe Simulationen erfordern mehrere Grafikprozessoren mit extrem schnellen Verbindungen und einem vollständig beschleunigten Softwarestack. Die NVIDIA HGX-KI–Supercomputing-Plattform vereint die volle Leistung von NVIDIA-Grafikprozessoren, NVIDIA® NVLink®, NVIDIA InfiniBand-Netzwerken und einem vollständig optimierten NVIDIA KI- und HPC-Softwarestack aus dem NVIDIA NGC-Katalog für höchste Anwendungsleistung. Dank der durchgängigen Leistung und Flexibilität ermöglicht es NVIDIA HGX Forschern und Wissenschaftlern, Simulationen, Datenanalysen und KI zu kombinieren, um wissenschaftlichen Fortschritt voranzutreiben.

Unerreichte End-to-End-Plattform für beschleunigtes Computing

NVIDIA HGX stellt mit NVIDIA A100 Tensor Core-GPUs und Hochgeschwindigkeitsverbindungen die leistungsstärksten Server der Welt dar. Dank 16 A100-GPUs bietet HGX A100 bis zu 1,3 Terabyte (TB) Grafikspeicher und eine Speicherbandbreite von über 2 Terabyte pro Sekunde (Tb/s) und erzielt somit nie dagewesene Beschleunigung.

Im Vergleich zu Vorgängergenerationen bietet HGX mit Tensor Float 32 (TF32) bis zu 20-fache KI-Beschleunigung und HPC eine 2,5-fache Beschleunigung mit FP64. NVIDIA HGX leistet atemberaubende 10 PetaFLOPS und ist somit die leistungsstärkste beschleunigte und vertikal skalierbare Serverplattform für KI und HPC.

Die HGX wurde umfassend getestet und ist einfach bereitzustellen. Sie wird für garantierte Leistung mit Partnerservern integriert. Die HGX-Plattform ist sowohl als 4-GPU- als auch als 8-GPU-HGX-Hauptplatinen mit SXM-GPUs verfügbar. Sie ist ebenfalls als PCIe-GPUs für eine modulare Bereitstellungsoption erhältlich, die die höchste Rechenleistung auf Mainstream-Servern bietet.

HGX Stack

NVIDIA HGX A100 (mit 8 A100-Grafikprozessoren)

NVIDIA HGX A100 (mit 8 A100-Grafikprozessoren)

NVIDIA HGX A100 (mit 4 A100-Grafikprozessoren)

NVIDIA HGX A100 (mit 4 A100-Grafikprozessoren)

Deep-Learning-Leistung

Leistung des maschinellen Lernens

2-mal schneller als A100 40 GB im Big Data Analytics-Benchmark

2X Faster than A100 40GB on Big Data Analytics Benchmark

Modelle für maschinelles Lernen erfordern das Laden, Umwandeln und Verarbeiten sehr großer Datensätze, um Erkenntnisse zu erlangen. Mit über 1,3 TB vereinheitlichtem Speicher und der multilateralen GPU-Kommunikation über NVSwitch verfügt HGX 80 GB über die Leistung, Berechnungen riesiger Datensätze zu laden und durchzuführen, um schnell handlungsorientierte Erkenntnisse zu erlangen.

In einem großen Datenanalyse-Benchmark erzielte die A100 80 GB Erkenntnisse mit 2-fach höherem Durchsatz als die A100 40 GB, womit sie ideal für zunehmende Workloads mit stetig wachsenden Datensätzen ist.

HPC-Leistung

HPC-Anwendungen müssen jede Sekunde enorme Mengen an Berechnungen durchführen. Durch die drastische Erhöhung der Rechendichte jedes Server-Knotens wird die Anzahl der erforderlichen Server erheblich reduziert. Dies führt zu großen Kosteneinsparungen und senkt den Platz- und Energiebedarf in Rechenzentren. Für HPC-Simulationen und die damit verbundene hochdimensionale Matrix-Multiplikation muss ein Prozessor Daten aus vielen Umgebungen für die Berechnung abrufen. Daher ist die Verbindung der Grafikprozessoren durch NVLink ideal. HPC-Anwendungen können auch TF32 in A100 nutzen und erreichen so in vier Jahren einen bis zu 11-mal höheren Durchsatz bei dichten Matrixmultiplikationsaufgaben mit einfacher Genauigkeit

Eine HGX A100 mit A100 80 GB-GPUs bietet eine zweifache Durchsatzsteigerung gegenüber A100 40 GB-GPUs in Quantum Espresso, einer Materialsimulation, und führt so zu schnellerem Erkenntnisgewinn.

11-mal mehr Leistung bei HPC in vier Jahren

Führende HPC-Anwendungen

11-mal mehr Leistung bei HPC  in vier Jahren

Bis zu 1,8-mal schnellere Leistung für HPC-Anwendungen

Quantum Espresso​

Bis zu 1,8-mal schnellere Leistung  für HPC-Anwendungen

Technische Daten zu NVIDIA HGX

NVIDIA HGX ist als einzelne Hauptplatine mit vier oder acht H100-GPUs und 80 GB GPU-Speicher oder mit A100-GPUs mit jeweils 40 GB oder 80 GB GPU-Speicher erhältlich. Die Konfiguration mit 4 Grafikprozessoren ist vollständig mit NVIDIA NVLink verbunden und die Konfiguration mit 8 Grafikprozessoren ist über NVIDIA NVSwitch miteinander verbunden. Bis zu 32 HGX H100-Systeme mit 8 GPUs können mithilfe des NVIDIA NVLink Switch-Systems für Cluster mit einem Umfang von bis zu 256 GPUs kombiniert werden. Zwei HGX A100-Hauptplatinen können mit einer NVSwitch-Verbindung kombiniert werden, um einen leistungsstarken Einzelknoten mit 16 Grafikprozessoren zu erstellen.

HGX ist auch in einem PCIe-Formfaktor als einfach bereitzustellende Option verfügbar, die höchste Rechenleistung auf Mainstream-Servern bietet.

Diese leistungsstarke Kombination aus Hard- und Software legt den Grundstein für die ultimative KI-Supercomputing-Plattform.

  HGX H100
  H100 PCIe 4-GPU 8-GPU 256-GPU
GPUs 1x NVIDIA H100 PCIe HGX H100 4-GPU HGX H100 8-GPU 32 8x NVIDIA H100 SXM-Knoten, die über das NVLink-Switch-System verbunden sind
Formfaktor PCIe 4x NVIDIA H100 SXM 8x NVIDIA H100 SXM 16x NVIDIA H100 SXM
HPC- und KI-Berechnungen (FP64/TF32/FP16/FP8/INT8) 48TF/800TF/1.6PF/3.2PF/3.2 POPS 240TF/4PF/8PF/16PF/16POPS 480TF/8PF/16PF/32PF/32POPS 15PF/256PF/512PF/1EF/1EOPS
Arbeitsspeicher 80 GB pro Grafikprozessor Bis zu 320 GB Bis zu 640 GB Bis zu 20 TB
NVLink Vierte Generation Vierte Generation Vierte Generation Vierte Generation
NVSwitch N/A N/A Dritte Generation Dritte Generation
NVLink-Switch N/A N/A N/A Erste Generation
NVSwitch-Bandbreite für Verbindungen zwischen GPUs N/A N/A 900 GB/s 900 GB/s
Gesamte aggregierte Bandbreite 900 GB/s 3,6 TB/s 7,2 TB/s 57,6 TB/s
  HGX A100
  A100 PCIe 4-GPU 8-GPU 16-GPU
GPUs 1x NVIDIA A100 PCIe HGX A100 4-GPU HGX A100 8-GPU 2x HGX A100 8-GPU
Formfaktor PCIe 4x NVIDIA A100 SXM 8x NVIDIA A100 SXM 16x NVIDIA A100 SXM
HPC- und KI-Berechnungen (FP64/TF32/FP16/INT8) 19.5TF/312TF/624TF/1.2POPS 78TF/1.25PF/2.5PF/5POPS 156TF/2.5PF/5PF/10POPS 312TF/5PF/10PF/20POPS
Arbeitsspeicher 80 GB pro Grafikprozessor Bis zu 320 GB Bis zu 640 GB Bis zu 1.280 GB
NVLink Dritte Generation Dritte Generation Dritte Generation Dritte Generation
NVSwitch N/A N/A Zweite Generation Zweite Generation
NVSwitch-Bandbreite für Verbindungen zwischen GPUs N/A N/A 600 GB/s 600 GB/s
Gesamte aggregierte Bandbreite 600 GB/s 2,4 TB/s 4,8 TB/s 9,6 TB/s

Beschleunigung von HGX mit NVIDIA Networking

Mit HGX ist es auch möglich, NVIDIA-Netzwerke einzubeziehen, um Datenübertragungen zu beschleunigen und zu entlasten und die volle Nutzung der Rechenressourcen sicherzustellen. Smart Adapters und Switches reduzieren die Latenz, steigern die Effizienz, erhöhen die Sicherheit und vereinfachen die Automatisierung von Rechenzentren, sodass die Leistung von End-to-End-Anwendungen beschleunigt wird.

Das Rechenzentrum ist die Recheneinheit der Zukunft und HPC-Netzwerke spielen eine wesentliche Rolle bei der Skalierung der Anwendungsleistung im gesamten Rechenzentrum. NVIDIA InfiniBand ebnet den Weg mit softwaredefinierten Netzwerken, Beschleunigungsmodulen mit netzwerkinternem Computing, Remote-Direktspeicherzugriff (RDMA) und den höchsten Geschwindigkeiten und schnellsten Datenfeeds.

Referenzarchitekturen HGX-1 und HGX-2

Mit NVIDIA-Grafikprozessoren und NVLINK

NVIDIA HGX-1 und HGX-2 sind Referenzarchitekturen, die das Design von Rechenzentren standardisieren und so KI und HPC beschleunigen. Mit NVIDIA SXM2 V100-Boards und NVIDIA NVLink- sowie NVSwitch-Verbindungstechnologien, verfügen HGX Referenzarchitekturen über ein modulares Design, das problemlos in Hyperscale- und Hybrid-Rechenzentren funktioniert, um bis zu 2 petaFLOPS Rechenleistung für schnelle und einfache KI und HPC zu bieten.

Mit NVIDIA-Grafikprozessoren und NVLINK

Technische Daten

8-GPU
HGX-1 
16-GPU
NVIDIA HGX-2 zu informieren 
Grafikprozessoren 8x NVIDIA V100 16x NVIDIA V100
KI-Rechenleistung 1 petaFLOPS (FP16) 2 petaFLOPS (FP16)
Arbeitsspeicher 256 GB 512 GB
NVLink 2. Generation 2. Generation
NVSwitch N/A Ja
NVSwitch-Bandbreite für Verbindungen zwischen GPUs N/A 300 GB/s
Gesamte aggregierte Bandbreite 2,4 TB/s 4,8 TB/s

Erfahren Sie mehr über den NVIDIA A100-Grafikprozessor