Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
Der ultimative Desktop-KI-Supercomputer unterstützt durch NVIDIA Grace Blackwell.
Registrieren Sie sich, um benachrichtigt zu werden, wenn die DGX Station verfügbar ist.
Überblick
Die NVIDIA DGX Station ist anders als alle bisher entwickelten KI-Desktop-Computer. Es handelt sich um das erste System, das mit dem NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip und einem bis zu 784 GB großem, kohärentem Speicher ausgestattet ist. Damit wird eine noch nie dagewesene Rechenleistung für die Entwicklung und Ausführung umfangreicher KI-Trainings- und Inferencing-Workloads auf Ihrem Desktop bereitgestellt. Die DGX Stations kombinieren modernste Systemfunktionen mit der NVIDIA® CUDA X-AI™ Plattform und sind speziell für Teams konzipiert, die die beste Desktop-KI-Entwicklungsplattform benötigen.
DGX Station und DGX Spark, unterstützt durch NVIDIA Grace Blackwell, legen KI in die Hände von Entwicklern, Forschern und Datenwissenschaftlern.
Die DGX Station verfügt über eine NVIDIA Blackwell-Ultra-GPU mit NVIDIA CUDA®-Recheneinheiten der neuesten Generation und Tensor-Recheneinheiten der fünften Generation. Diese sind über die NVIDIA® NVLink®-C2C-Verbindung mit einer hochleistungsfähigen NVIDIA Grace-CPU verbunden und sorgen für erstklassige Systemkommunikation und -leistung.
DGX-Stations werden von den neuesten Tensor-Recheneinheiten der Blackwell-Generation angetrieben und ermöglichen 4-Bit-Gleitkomma-KI (FP4). Dadurch werden die Leistung und Größe von Modellen der nächsten Generation, die der Speicher bei gleichbleibender hoher Genauigkeit unterstützen kann, verdoppelt.
Der NVIDIA ConnectX®-8 SuperNIC™ ist für die Optimierung von Hyperscale-KI-Computing-Workloads ausgelegt. Mit bis zu 800 Gigabit pro Sekunde (Gbit/s) bietet ConnectX-8 SuperNIC extrem schnelle und effiziente Netzwerkkonnektivität und verbessert so die Systemleistung für KI-Fabriken erheblich.
NVIDIA Base OS implementiert stabile, vollständig qualifizierte Betriebssysteme für die Ausführung von KI-, maschinellen Lern- und Analyseanwendungen auf der DGX-Plattform. Es umfasst systemspezifische Konfigurationen, Treiber sowie Diagnose- und Überwachungstools. Die Ausführung von DGX Base OS ermöglicht eine vereinfachte Skalierung von Workloads auf verschiedenen Systemen – von einer DGX Station über mehrere Systeme bis hin zu Bereitstellungen in Rechenzentren.
NVIDIA NVLink-C2C erweitert die branchenführende NVLink-Technologie auf eine Chip-zu-Chip-Verbindung zwischen GPU und CPU und ermöglicht so kohärente Datenübertragungen mit hoher Bandbreite zwischen Prozessoren und Beschleunigern.
KI-Modelle nehmen an Umfang und Komplexität weiter zu. Das Trainieren und Ausführen dieser Modelle im großen kohärenten Speicher von NVIDIA Grace Blackwell Ultra ermöglicht das effiziente Trainieren und Ausführen von Modellen in großem Maßstab in einem Speicherpool, dank der C2C-Superchip-Verbindung, die die Engpässe herkömmlicher CPU- und GPU-Systeme umgeht.
Entwickler, Forscher und Erfinder aus den verschiedensten Bereichen nutzen die GPU-Programmierung, um ihre Anwendungen zu beschleunigen. CUDA-X™-Bibliotheken basieren auf CUDA und vereinfachen die Einführung der Beschleunigungsplattform von NVIDIA in den Bereichen Datenverarbeitung, KI und High-Performance-Computing. Mit über 400 Bibliotheken können Entwickler mit der CUDA-Plattform ganz einfach Anwendungen über PCs, Workstations, die Cloud und Supercomputer hinweg entwickeln, optimieren, bereitstellen und skalieren.
DGX Stations nutzen KI-basierte Systemoptimierungen, die die Leistung auf Basis des aktuell aktiven Workloads intelligent verschieben und so kontinuierlich Leistung und Effizienz maximieren.
Mit einer umfangreichen Bibliothek von CUDA-optimierten Bibliotheken zur Beschleunigung von Deep-Learning- und ML-Trainings in Kombination mit dem massiven Speicher- und Superchip-Durchsatz der DGX Station bietet die beschleunigte Computing-Plattform von NVIDIA die ultimative KI-Entwicklungsplattform für alle Branchen – von der Entwicklung vorausschauender Wartung über die Analyse medizinischer Bildgebung bis hin zu Anwendungen zur Verarbeitung natürlicher Sprache.
Mit KI-Software von NVIDIA, einschließlich RAPIDS™-Open-Source-Softwarebibliotheken, reduzieren GPUs die Infrastrukturkosten erheblich und bieten überlegene Leistung für End-to-End-Datenwissenschafts-Workflows. Der große kohärente Speicherpool, der vom DGX Station-Superchip bereitgestellt wird, ermöglicht die direkte Erfassung riesiger Datenseen in den Speicher, wodurch Engpässe in der Datenwissenschaft beseitigt und der Durchsatz beschleunigt wird.
KI-Modelle wachsen rasant im Hinblick auf ihre Größe, Komplexität und Vielfalt und verschieben die Grenzen des Möglichen. DGX Stations beschleunigen das Inferencing für die lokale Ausführung großer KI-Modelle auf dem System und bieten eine unglaubliche Geschwindigkeit für die Generierung von Token für große Sprachmodelle (LLM), Datenanalyse, die Erstellung von Inhalten, KI-Chatbots und mehr.
Die DGX Station kann als individueller Desktop für einen Benutzer dienen oder als zentralisierter Rechenknoten für mehrere Teammitglieder als persönlicher Cloud-Server fungieren. Mit der Mehr-Instanzen-GPU-Technologie (MIG) von NVIDIA kann der Grafikprozessor in bis zu sieben Instanzen partitioniert werden, die jeweils vollständig isoliert sind und über einen eigenen Speicher, Cache und Rechenkerne mit hoher Bandbreite verfügen. So können Administratoren jeden Workload unterstützen, egal wie groß oder klein, mit garantierter Servicequalität (QoS). Die Verfügbarkeit beschleunigter Computing-Ressourcen auf alle Nutzer wird dadurch erweitert.
*Vorläufige Spezifikationen, Änderungen vorbehalten
NVIDIA-Datenschutzrichtlinie