NVIDIA DGX A100

Das universelle System für die KI-Infrastruktur

 

Das weltweit erste KI-System auf Basis von NVIDIA A100

NVIDIA DGX A100 ist das universelle System für alle KI-Workloads und bietet beispiellose Rechendichte, Leistung und Flexibilität im weltweit ersten 5 petaFLOPS KI-System. NVIDIA DGX A100 verfügt über den weltweit fortschrittlichsten Beschleuniger, den NVIDIA A100 Tensor Core-Grafikprozessor, mit dem Unternehmen Schulungen, Inferenz und Analysen in einer einheitlichen, einfach zu implementierenden KI-Infrastruktur mit direktem Kontakt zu NVIDIA KI-Experten konsolidieren können.

Wesentlicher Baustein des KI-Rechenzentrums

The Universal System for Every AI Workload

Das universelle System für alle KI-Workloads

NVIDIA DGX A100 ist das universelle System für die gesamte KI-Infrastruktur – von der Analyse über die Schulung bis hin zur Inferenz. Es setzt neue Maßstäbe für Rechendichte, indem es 5 petaFLOPS für KI-Leistung in einem 6U-Formfaktor verbindet und so die vorhandenen Infrastruktursilos durch eine Plattform für alle KI-Workloads ersetzt.

DGXperts: Integrated Access to AI Expertise

DGXperts: Integrierter Zugriff auf KI-Know-how

NVIDIA DGXperts ist ein globales Team mit über 16.000 KI-Profis, die sich im Laufe der letzten zehn Jahre eine Fülle an Erfahrung angeeignet haben, um Ihnen dabei zu helfen, den Wert Ihrer DGX-Investition zu maximieren.

Fastest Time To Solution

Kürzeste Zeit bis zur Lösung

NVIDIA DGX A100 ist das weltweit erste System mit dem NVIDIA A100 Tensor Core-Grafikprozessor. Integrieren von acht A100-Grafikprozessoren mit bis zu 640 GB Grafikprozessorspeicher bietet das System eine bisher unerreichte Beschleunigung und ist vollständig für NVIDIA CUDA-X-Software und die End-to-End-Zusatzlösung von NVIDIA für Rechenzentren optimiert

data-center-dgx-a100-benefits-icon_unmatched-data

Unübertroffene Skalierbarkeit in Rechenzentren

NVIDIA DGX A100 verfügt über integriertes Mellanox-Netzwerk mit 500 Gigabyte pro Sekunde (GB/s) der maximalen bidirektionalen Bandbreite. Dies ist eine der vielen Funktionen, die DGX A100 zu einem Grundbaustein für große KI-Cluster wie NVIDIA DGX SuperPOD machen – dem Unternehmenskonzept für skalierbare KI-Infrastrukturen.

Eine einfachere und schnellere Lösung für den Umgang mit KI

Eine einfachere und schnellere Lösung für den Umgang mit KI

Das NVIDIA AI Starter Kit bietet alles, was Ihr Team braucht – von einer erstklassigen KI-Plattform über optimierte Software und Tools bis hin zu Beratungsdiensten – um Ihre Initiativen für KI schnell einzurichten und zu nutzen Verlieren Sie beim Erstellen einer KI-Plattform weder Zeit noch Geld. Richten Sie alles an einem Tag ein, lassen Sie sich Anwendungfälle in einer Woche definieren und stellen Sie Modelle früher her.

  • Für Entwickler
  • Für IT-Manager
  • Für Unternehmensleiter
Solve Bigger, More Complex Data Science Problems Faster

Schnellere Lösung größerer, komplexerer Datenwissenschaftsprobleme

Vorteile

  • Mit der sofort einsatzbereiten, optimierten KI-Software lassen sich langwierige Einstellungen und Tests vermeiden.
  • Sie erhalten bessere Modelle früher mit unübertroffener Leistung, die schnellere Iterationen ermöglicht.
  • Vermeiden Sie Zeitverlust für die Systemintegration und Softwareentwicklung.
Deploy Infrastructure and Operationalize AI at Scale

Bereitstellung der Infrastruktur und operatives Skalieren der KI

Vorteile

  • Erleben Sie ein vereinfachtes Infrastrukturdesign und einfachere Kapazitätsplanung mit einem System für alle KI-Workloads.
  • Erreichen Sie die höchste Rechendichte und Leistung bei geringstem Platzbedarf.
  • Profitieren Sie von der integrierten Sicherheit in jeder Schicht – vom Container bis zum Chip.

 

Shorten Time to Insights and Accelerate ROI of AI

Verkürzung der Zeit für Erkenntnisse und Beschleunigung der Kapitalrendite der KI

Vorteile

  • Steigern Sie die Produktivität von Datenwissenschaftlern und eliminieren Sie nicht wertsteigernde Aktivitäten.
  • Beschleunigen Sie den Entwicklungszyklus – vom Konzept bis hin zur Produktion.
  • Vermeiden Sie Hindernisse mit Ratschlägen von DGXperts.
  •  

Mehr über NVIDIA DGX A100-Systeme erfahren

Überragende Leistung

Schulungen

DLRM-Training

Bis zu 3-fach höherer
Durchsatz für KI-Training auf den
größten Modellen

Inferenz

RNN-T-Inferenz: Single Stream

Bis zu 1,25-fach höherer
Durchsatz für KI-Inferenz
 

Datenanalysen

Benchmark für Big Data Analytik

Bis zu 83-fach höherer
Durchsatz als CPU, 2-fach höherer
Durchsatz als DGX A100 320 GB

Entdecken Sie die leistungsstarken Komponenten von DGX A100.

1 (1) 8 NVIDIA A100-Grafikprozessoren mit 640 GB Gesamt-Grafikprozessorspeicher
12 NVLinks pro Grafikprozessor, 600 GB/s Bandbreite zwischen Grafikprozessoren

2 6 NVSwitches der zweiten Generation
4,8 TB/s mit bidirektionaler Bandbreite, doppelt so viel wie die Vorgängergeneration

3 10 Mellanox ConnectX-6 VPI HDR InfiniBand/200 GB Ethernet
500 GB/s maximale bidirektionalen Bandbreite

4 Zwei AMD-CPUs mit 64 und 2 TB Systemspeicher
2,7 x mehr Recheneinheiten für die intensivsten KI-Aufträge

5 30 TB Gen4 NVME-SSDs
50 GB/s maximale Bandbreite,
2 x schneller als Gen3-NVME-SSDs

Data Center

Gewinne tiefe Einblicke in das neue NVIDIA DGX A100-System.

Die Technologie im NVIDIA DGX A100

  • A100-Grafikprozessor
  • Mehr-Instanzen-Grafikprozessor
  • NVLink und NVSwitch
  • Mellanox ConnectX-6
  • Optimierte Zusatzsoftware
  • Sicherheit

NVIDIA A100 Tensor-Core-GPU

Der NVIDIA A100 Tensor Core-Grafikprozessor bietet eine bisher unerreichte Beschleunigung für KI, Datenanalysen und High-Performance Computing (HPC), um die schwierigsten Computing-Herausforderungen der Welt zu bewältigen. Mit den NVIDIA Tensor Cores-Recheneinheiten der dritten Generation, die eine enorme Leistungssteigerung bieten, kann der A100-Grafikprozessor effizient bis zu Tausenden skaliert werden oder mit dem Mehr-Instanzen-Grafikprozessor in sieben kleinere, dedizierte Instanzen aufgeteilt werden, um Workloads aller Größen zu beschleunigen.

NVIDIA A100 Tensor Core GPU

Mehr-Instanzen-Grafikprozessor (MIG)

Mit MIG können die acht A100-Grafikprozessoren in DGX A100 in bis zu 56 Grafikprozessor-Instanzen konfiguriert werden, die jeweils vollständig isoliert ausgeführt werden und über eigene Speicher-, Cache- und Recheneinheiten mit hoher Bandbreite verfügen. Dadurch können Administratoren Grafikprozessoren mit der gleichen Größe wie die garantierte Quality of Service (QoS) für mehrere Workloads erhalten.

Multi Instance GPU

NVLink und NVSwitch der nächsten Generation

Mit der dritten Generation von NVIDIA® NVLink in DGX A100 wird die direkte Bandbreite zwischen Grafikprozessoren auf 600 Gigabyte pro Sekunde (GB/s) verdoppelt und ist somit fast 10-mal höher als bei PCIe Gen4. DGX A100 beinhaltet auch NVIDIA NVSwitch™ der nächsten Generation, das 2 x Mal schneller als die Vorgängergeneration ist.

Next-Generation NVLink and NVSwitch

Mellanox ConnectX-6 VPI HDR InfiniBand

DGX A100 verfügt über die neuesten Mellanox ConnectX-6 VPI HDR InfiniBand-/Ethernet-Adapter, die jeweils mit 200 Gigabit pro Sekunde (GB/s) ausgeführt werden, um ein Hochgeschwindigkeits-Fabric für umfangreiche KI-Workloads zu erzeugen.

Mellanox ConnectX-6 VPI HDR InfiniBand

Optimierte Zusatzsoftware

DGX A100 enthält eine getestete und optimierte Zusatzsoftware, einschließlich eines für KI optimierten Basisbetriebssystems, der erforderlichen Systemsoftware sowie durch den Grafikprozessor beschleunigter Anwendungen, vorab trainierter Modelle und mehr von NGC.

DGX Software Stack

Integrierte Sicherheit

DGX A100 bietet für KI-Bereitstellungen sehr robuste Sicherheit mit einem mehrschichtigen Ansatz, bei dem alle wichtigen Hardware- und Softwarekomponenten gesichert werden. Dazu zählen auch selbstverschlüsselnde Laufwerke, signierte Softwarecontainer, sichere Verwaltung und Überwachung und vieles mehr.

Built-In Security

Erfahren Sie mehr über Unterstützung der Enterprise-Klasse für NVIDIA DGX-Systeme.

NVIDIA DGX-Systeme kaufen

Mehr über NVIDIA DGX-Systeme erfahren