Das universelle System für die KI-Infrastruktur
NVIDIA DGX™ A100 ist das universelle System für alle KI-Workloads und bietet beispiellose Rechendichte, Leistung und Flexibilität im weltweit ersten 5 petaFLOPS KI-System. Der DGX A100 verfügt über den NVIDIA A100 Tensor Core-Grafikprozessor, mit dem Unternehmen Schulungen, Inferenz und Analysen in einer einheitlichen, einfach zu implementierenden KI-Infrastruktur mit direktem Kontakt zu NVIDIA KI-Experten konsolidieren können.
NVIDIA DGX A100 ist das universelle System für die gesamte KI-Infrastruktur – von der Analyse über die Schulung bis hin zur Inferenz. DGX A100 basiert auf NVIDIA Base Command, dem Betriebssystem des beschleunigten Rechenzentrums. Es setzt neue Maßstäbe für Rechendichte, indem es 5 petaFLOPS für KI-Leistung in einem 6U-Formfaktor verbindet und so die vorhandenen Infrastruktursilos durch eine Plattform für alle KI-Workloads ersetzt.
NVIDIA DGXperts ist ein globales Team mit mehr als 20.000 KI-bewanderten Profis, die Ihnen mit der Erfahrung aus mehr als zehn Jahren dabei helfen, den Wert Ihrer DGX-Investition zu maximieren.
NVIDIA DGX A100 ist das weltweit erste KI-System, das auf dem NVIDIA A100 Tensor Core-Grafikprozessor basiert. Mit den acht integrierten A100-Grafikprozessoren mit 320 GB oder 640 GB GPU-Speicher bietet das System eine bisher unerreichte Beschleunigung und ist vollständig für NVIDIA CUDA-X™-Software und die End-to-End-Zusatzlösung von NVIDIA für Rechenzentren optimiert.
NVIDIA DGX A100 verfügt über NVIDIA® ConnectX-7® InfiniBand/Ethernet-Netzwerkadapter mit bidirektionalen Peak-Bandbreiten von 500 Gigabyte pro Sekunde (GB/s). Dies ist eine der vielen Funktionen, die DGX A100 zu einem Grundbaustein für große KI-Cluster wie NVIDIA DGX SuperPOD™ machen – dem Unternehmenskonzept für skalierbare KI-Infrastrukturen.
Das NVIDIA AI Starter Kit bietet alles, was Ihr Team braucht – von einer erstklassigen KI-Plattform über optimierte Software und Tools bis hin zu Beratungsdiensten – um Ihre Initiativen für KI schnell einzurichten und zu nutzen Verlieren Sie beim Erstellen einer KI-Plattform weder Zeit noch Geld. Richten Sie alles an einem Tag ein, lassen Sie sich Anwendungsfälle in einer Woche definieren und stellen Sie Modelle früher her.
DLRM-Training
Bis zu 3X höherer Datendurchsatz für KI-Training bei den größten Modellen
DLRM on HugeCTR framework, precision = FP16 | 1x DGX A100 640GB batch size = 48 | 2x DGX A100 320GB batch size = 32 | 1x DGX-2 (16x V100 32GB) batch size = 32. Beschleunigungen auf die Anzahl der Grafikprozessoren normalisiert.
RNN-T-Inferenz: Single Stream
Bis zu 1,25X höherer Datendurchsatz für KI-Inferenz
MLPerf 0.7 RNN-T measured with (1/7) MIG slices. Framework: TensorRT 7.2, dataset = LibriSpeech, precision = FP16.
Benchmark für Big Data Analytik
Bis zu 83X höherer Datendurchsatz als bei einer CPU 2X höherer Datendurchsatz als DGX A100 320 GB
Benchmark für Big Data Analytik | 30 analytische Einzelhandelsanfragen, ETL, ML, NLP auf 10-TB-Datensatz | CPU: 19x Intel Xeon Gold 6252 2,10 GHz, Hadoop | 16x DGX-1 (jeweils 8x V100 32 GB), RAPIDS/Dask | 12x DGX A100 320 GB und 6x DGX A100 640 GB, RAPIDS/Dask/BlazingSQL. Beschleunigungen auf die Anzahl der Grafikprozessoren normalisiert
18x NVIDIA A100 GPUs mit bis zu 640 GB Gesamt-GPU-Speicher 12 NVLinks/GPU, 600 GB/s bidirektionale Bandbreite zwischen Grafikprozessoren
26× NVIDIA NVSwitches 4,8 TB/s bidirektionale Bandbreite, 2X mehr als beim NVSwitch der Vorgängergeneration
3Bis zu 10× NVIDIA Connectx-7 200 Gb/s-Netzwerkschnittstelle 500 GB/s bidirektionale Peak-Bandbreite
4 Zwei AMD-CPUs mit 64 und 2 TB Systemspeicher 3,2× mehr Cores zur Verarbeitung der intensivsten KI-Jobs
5 30 TB Gen4 NVME-SSD 50 GB/s Peak-Bandbreite, 2X schneller als Gen3 NVME-SSDs
Gewinne tiefe Einblicke in das neue NVIDIA DGX A100-System
Der NVIDIA A100 Tensor Core-Grafikprozessor bietet eine bisher unerreichte Beschleunigung für KI, Datenanalysen und High-Performance Computing (HPC), um die schwierigsten Computing-Herausforderungen der Welt zu bewältigen. Mit den NVIDIA Tensor-Recheneinheiten der dritten Generation, die eine enorme Leistungssteigerung bieten, kann der A100-Grafikprozessor effizient bis zu Tausenden skaliert werden oder mit dem Mehr-Instanzen-Grafikprozessor in sieben kleinere, dedizierte Instanzen aufgeteilt werden, um Workloads aller Größen zu beschleunigen.
Mit MIG können die acht A100-Grafikprozessoren in DGX A100 in bis zu 56 Grafikprozessor-Instanzen konfiguriert werden, die jeweils vollständig isoliert ausgeführt werden und über eigene Speicher-, Cache- und Recheneinheiten mit hoher Bandbreite verfügen. Dadurch können Administratoren Grafikprozessoren mit der gleichen Größe wie die garantierte Quality of Service (QoS) für mehrere Workloads erhalten.
Mit der dritten Generation von NVIDIA® NVLink™ in DGX A100 wird die direkte Bandbreite zwischen Grafikprozessoren auf 600 Gigabyte pro Sekunde (GB/s) verdoppelt und ist somit fast 10-mal höher als bei PCIe Gen4. DGX A100 verfügt außerdem über NVIDIA NVSwitch™ der nächsten Generation, das 2X so schnell ist wie die Vorgängergeneration.
DGX A100 verfügt über NVIDIA ConnectX-7 InfiniBand- und VPI-Adapter (Infiniband oder Ethernet), die jeweils mit 200 Gigabit pro Sekunde (GB/s) ausgeführt werden, um ein Hochgeschwindigkeits-Fabric für umfangreiche KI-Workloads zu erzeugen. DGX A100-Systeme sind auch mit ConnectX-6-Adaptern verfügbar.
DGX A100 enthält eine getestete und optimierte Zusatzsoftware, einschließlich eines für KI optimierten Basisbetriebssystems, der erforderlichen Systemsoftware sowie durch den Grafikprozessor beschleunigter Anwendungen, vorab trainierter Modelle und mehr von NGC™.
DGX A100 bietet für KI-Bereitstellungen sehr robuste Sicherheit mit einem mehrschichtigen Ansatz, der sich über den Baseboard Management Controller (BMC), die CPU-Platine, das GPU-Board, selbstverschlüsselte Laufwerke und den sicheren Bootvorgang erstreckt.
Erfahren Sie mehr über Unterstützung der Enterprise-Klasse für NVIDIA DGX-Systeme.
Erstklassige KI-Infrastruktur
NVIDIA-Datenschutzrichtlinie