Das universelle System für die KI-Infrastruktur
NVIDIA DGX™ A100 ist das universelle System für alle KI-Workloads und bietet beispiellose Rechendichte, Leistung und Flexibilität im weltweit ersten 5 petaFLOPS KI-System. NVIDIA DGX A100 verfügt über den weltweit fortschrittlichsten Beschleuniger, den NVIDIA A100 Tensor Core-Grafikprozessor, mit dem Unternehmen Schulungen, Inferenz und Analysen in einer einheitlichen, einfach zu implementierenden KI-Infrastruktur mit direktem Kontakt zu NVIDIA KI-Experten konsolidieren können.
NVIDIA DGX A100 ist das universelle System für die gesamte KI-Infrastruktur – von der Analyse über die Schulung bis hin zur Inferenz. Es setzt neue Maßstäbe für Rechendichte, indem es 5 petaFLOPS für KI-Leistung in einem 6U-Formfaktor verbindet und so die vorhandenen Infrastruktursilos durch eine Plattform für alle KI-Workloads ersetzt.
NVIDIA DGXperts ist ein globales Team mit über 16.000 KI-Profis, die sich im Laufe der letzten zehn Jahre eine Fülle an Erfahrung angeeignet haben, um Ihnen dabei zu helfen, den Wert Ihrer DGX-Investition zu maximieren.
NVIDIA DGX A100 ist das weltweit erste System mit dem NVIDIA A100 Tensor Core-Grafikprozessor. Integrieren von acht A100-Grafikprozessoren mit bis zu 640 GB Grafikprozessorspeicher bietet das System eine bisher unerreichte Beschleunigung und ist vollständig für NVIDIA CUDA-X™-Software und die End-to-End-Zusatzlösung von NVIDIA für Rechenzentren optimiert
NVIDIA DGX A100 verfügt über integriertes Mellanox-Netzwerk mit 500 Gigabyte pro Sekunde (GB/s) der maximalen bidirektionalen Bandbreite. Dies ist eine der vielen Funktionen, die DGX A100 zu einem Grundbaustein für große KI-Cluster wie NVIDIA DGX SuperPOD™ machen – dem Unternehmenskonzept für skalierbare KI-Infrastrukturen.
Das NVIDIA AI Starter Kit bietet alles, was Ihr Team braucht – von einer erstklassigen KI-Plattform über optimierte Software und Tools bis hin zu Beratungsdiensten – um Ihre Initiativen für KI schnell einzurichten und zu nutzen Verlieren Sie beim Erstellen einer KI-Plattform weder Zeit noch Geld. Richten Sie alles an einem Tag ein, lassen Sie sich Anwendungfälle in einer Woche definieren und stellen Sie Modelle früher her.
Mehr über NVIDIA DGX A100-Systeme erfahren
DLRM-Training
Bis zu 3-fach höherer Durchsatz für KI-Training auf den größten Modellen
DLRM auf HugeCTR-Framework, Präzision = FP16 | 1x DGX A100 640 GB Batchgröße = 48 | 2x DGX A100 320 GB Batchgröße = 32 | 1x DGX 2 (16X V100 × 32 GB) Batchgröße = 32. Beschleunigungen auf die Anzahl der Grafikprozessoren normalisiert.
RNN-T-Inferenz: Single Stream
Bis zu 1,25-fach höherer Durchsatz für KI-Inferenz
MLPerf 0.7 RNN-T gemessen mit (1/7) MIG-Instanzen. Framework: TensorRT 7.2, Datensatz = librispeech, Präzision = FP16.
Benchmark für Big Data Analytik
Bis zu 83-fach höherer Durchsatz als CPU, 2-fach höherer Durchsatz als DGX A100 320 GB
Benchmark für Big Data Analytik | 30 analytische Einzelhandelsanfragen, ETL, ML, NLP auf 10-TB-Datensatz | CPU: 19x Intel Xeon Gold 6252 2,10 GHz, Hadoop | 16x DGX-1 (jeweils 8x V100 32 GB), RAPIDS/Dask | 12x DGX A100 320 GB und 6x DGX A100 640 GB, RAPIDS/Dask/BlazingSQL. Beschleunigungen auf die Anzahl der Grafikprozessoren normalisiert
1 (1) 8 NVIDIA A100-Grafikprozessoren mit 640 GB Gesamt-Grafikprozessorspeicher 12 NVLinks pro Grafikprozessor, 600 GB/s Bandbreite zwischen Grafikprozessoren
2 6 NVSwitches der zweiten Generation 4,8 TB/s mit bidirektionaler Bandbreite, doppelt so viel wie die Vorgängergeneration
3 10 Mellanox ConnectX-6 VPI HDR InfiniBand/200 GB Ethernet 500 GB/s maximale bidirektionalen Bandbreite
4 Zwei AMD-CPUs mit 64 und 2 TB Systemspeicher 2,7 x mehr Recheneinheiten für die intensivsten KI-Aufträge
5 30 TB Gen4 NVME-SSDs 50 GB/s maximale Bandbreite, 2 x schneller als Gen3-NVME-SSDs
Gewinne tiefe Einblicke in das neue NVIDIA DGX A100-System.
Der NVIDIA A100 Tensor Core-Grafikprozessor bietet eine bisher unerreichte Beschleunigung für KI, Datenanalysen und High-Performance Computing (HPC), um die schwierigsten Computing-Herausforderungen der Welt zu bewältigen. Mit den NVIDIA Tensor Cores-Recheneinheiten der dritten Generation, die eine enorme Leistungssteigerung bieten, kann der A100-Grafikprozessor effizient bis zu Tausenden skaliert werden oder mit dem Mehr-Instanzen-Grafikprozessor in sieben kleinere, dedizierte Instanzen aufgeteilt werden, um Workloads aller Größen zu beschleunigen.
Mit MIG können die acht A100-Grafikprozessoren in DGX A100 in bis zu 56 Grafikprozessor-Instanzen konfiguriert werden, die jeweils vollständig isoliert ausgeführt werden und über eigene Speicher-, Cache- und Recheneinheiten mit hoher Bandbreite verfügen. Dadurch können Administratoren Grafikprozessoren mit der gleichen Größe wie die garantierte Quality of Service (QoS) für mehrere Workloads erhalten.
Mit der dritten Generation von NVIDIA® NVLink™ in DGX A100 wird die direkte Bandbreite zwischen Grafikprozessoren auf 600 Gigabyte pro Sekunde (GB/s) verdoppelt und ist somit fast 10-mal höher als bei PCIe Gen4. DGX A100 beinhaltet auch NVIDIA NVSwitch™ der nächsten Generation, das 2 x Mal schneller als die Vorgängergeneration ist.
DGX A100 verfügt über die neuesten Mellanox ConnectX-6 VPI HDR InfiniBand-/Ethernet-Adapter, die jeweils mit 200 Gigabit pro Sekunde (GB/s) ausgeführt werden, um ein Hochgeschwindigkeits-Fabric für umfangreiche KI-Workloads zu erzeugen.
DGX A100 enthält eine getestete und optimierte Zusatzsoftware, einschließlich eines für KI optimierten Basisbetriebssystems, der erforderlichen Systemsoftware sowie durch den Grafikprozessor beschleunigter Anwendungen, vorab trainierter Modelle und mehr von NGC™.
DGX A100 bietet für KI-Bereitstellungen sehr robuste Sicherheit mit einem mehrschichtigen Ansatz, bei dem alle wichtigen Hardware- und Softwarekomponenten gesichert werden. Dazu zählen auch selbstverschlüsselnde Laufwerke, signierte Softwarecontainer, sichere Verwaltung und Überwachung und vieles mehr.
Erfahren Sie mehr über Unterstützung der Enterprise-Klasse für NVIDIA DGX-Systeme.
KI-Infrastruktur der Führungsklasse
Datenschutz