Der Goldstandard für KI-Infrastruktur.
Erweitern Sie die Möglichkeiten von Innovation und Optimierung mit NVIDIA DGX™ H100. DGX H100, die neueste Iteration der legendären DGX-Systeme von NVIDIA und die Grundlage von NVIDIA DGX SuperPOD™, ist das KI-Kraftpaket, das durch die bahnbrechende Leistung der NVIDIA H100 Tensor Core-GPU beschleunigt wird.
DGX H100 ist die vierte Generation der weltweit ersten speziell entwickelten KI-Infrastruktur: eine vollständig optimierte Hardware- und Softwareplattform, die Unterstützung für die neuen NVIDIA KI-Softwarelösungen, ein umfangreiches Ökosystem von Drittanbieter-Support und Zugriff auf Expertenberatung durch professionelle NVIDIA-Services umfasst.
NVIDIA DGX H100 bietet 6-mal mehr Leistung, 2-mal schnelleres Networking und Skalierbarkeit in Hochgeschwindigkeit für NVIDIA DGX SuperPOD. Die Architektur der nächsten Generation ist für enorm umfangreiche Workloads wie die Verarbeitung natürlicher Sprache und Deep-Learning-Empfehlungsmodelle optimiert.
DGX H100 kann vor Ort für die direkte Verwaltung installiert, gemeinsam in NVIDIA DGX-Ready-Rechenzentren eingerichtet, in NVIDIA DGX Foundry gemietet und über NVIDIA-zertifizierte Managed Service Providers zugänglich gemacht werden. Und mit dem DGX-Ready Lifecycle Management erhalten Unternehmen ein vorhersehbares Finanzmodell, mit der ihre Bereitstellung stets brandaktuell ist.
8x NVIDIA H100-GPUs MIT 640 GIGABYTE GESAMT-GPU-SPEICHER 18x NVIDIA® NVLinks® pro GPU, 900 Gigabyte pro Sekunde bidirektionale Bandbreite zwischen Grafikprozessoren
4x NVIDIA NVSWITCHES™ 7,2 Terabyte pro Sekunde bidirektionale Bandbreite für Verbindungen zwischen GPUs – 1,5-mal mehr als bei der vorherigen Generation
8x NVIDIA CONNECTX®-7 und 2x NVIDIA BLUEFIELD® DPU NETZWERKINTERFACE MIT 400 GBIT/SEK. Spitzenwert von 1 Terabyte pro Sekunde bidirektionale Netzwerkbandbreite
DUALE x86-CPUs UND 2 TERABYTE SYSTEMSPEICHER Leistungsstarke CPUs für die intensivsten KI-Aufgaben
30 TERABYTE NVME-SSD Hochgeschwindigkeits-Datenspeicher für maximale Leistung
Erstklassige KI-Infrastruktur