NVIDIA DGX B200

NVIDIA DGX B200

Die Grundlage für Ihr KI-Kompetenzzentrum.

Revolutionäre Leistung dank evolutionärer Innovationen

NVIDIA DGX™ B200 ist eine einheitliche KI-Plattform für Pipelines von der Entwicklung bis zur Bereitstellung in Unternehmen jeglicher Größe und in jeder Phase ihrer KI-Reise. Ausgestattet mit acht NVIDIA Blackwell-GPUs, die über NVIDIA® NVLink® der fünften Generation miteinander verbunden sind, bietet DGX B200 eine bahnbrechende Leistung mit der 3-fachen Trainingsleistung und der 15-fachen Inferenzleistung der Vorgängergenerationen. Durch die Nutzung der NVIDIA Blackwell-GPU-Architektur kann DGX B200 diverse Workloads bewältigen, einschließlich großer Sprachmodelle, Empfehlungssysteme und Chatbots, und ist damit ideal für Unternehmen geeignet, die ihre KI-Transformation beschleunigen möchten.

KI-Infrastruktur für jeden Workload

Erfahren Sie, wie Unternehmen mit DGX B100 jeden KI-Workload beschleunigen können – von der Datenvorbereitung über das Training bis hin zur Inferenz.

Beispiele für erfolgreiche Unternehmensbereitstellungen

Erfahren Sie, wie führende Unternehmen von der NVIDIA DGX-Plattform und NVIDIA NeMo™ Unterstützung erfahren haben.

Vorteile

Eine einheitliche KI-Plattform

Eine Plattform für Pipelines von der Entwicklung bis zur Bereitstellung

Unternehmen benötigen enorme Mengen an Rechenleistung, um komplexe KI-Datensätze in jeder Phase der KI-Pipeline zu verarbeiten, vom Training über das Finetuning bis hin zur Inferenz. Mit NVIDIA DGX B200 haben Unternehmen die Möglichkeit, ihre Entwickler mit einer einzigen Plattform auszustatten, die zur Beschleunigung ihrer Workflows entwickelt wurde.

Kraftpaket für KI-Leistung

Basierend auf den Fortschritten der NVIDIA Blackwell-Architektur im Computing bietet DGX B200 die 3-fache Trainingsleistung und die 15-fache Inferenzleistung von DGX H100. Als Grundlage für NVIDIA DGXBasePOD™ und NVIDIA DGX SuperPOD™ bietet DGX B200 bahnbrechende Leistung für jeden Workload.

Bewährter Infrastrukturstandard

DGX B200 ist eine vollständig optimierte Hardware- und Softwareplattform, welche die vollständige NVIDIA KI-Softwarelösung, einschließlich NVIDIA Base Command und NVIDIA AI Enterprise, umfasst und ein reichhaltiges Ökosystem von Drittanbieter-Support und Zugriff auf Expertenberatung durch professionelle NVIDIA-Services bietet.

Leistung

Leistung der nächsten Generation Powered by DGX B200

Echtzeit-Inferenz für Large Language Models

Die projizierte Leistung kann Änderungen unterliegen. Token-to-Token-Latenz (TTL) = 50 ms in Echtzeit, erste Token-Latenz (FTL) = 5 s, Eingabesequenzlänge = 32.768, Ausgabesequenzlänge = 1.028, 8x Acht-Wege-DGX H100-GPUs mit Luftkühlung vs. 1x Acht-Wege-DGX B200 mit Luftkühlung, pro GPU-Leistungsvergleich​.

Neue Maßstäbe bei der KI-Trainingsleistung

Änderungen der prognostizierten Leistung vorbehalten. Leistung von 32.768 GPUs, 4.096 Acht-Wege-DGX H100-Cluster mit Luftkühlung: 400G IB-Netzwerk, 4.096 Acht-Wege-DGX B200-Cluster mit Luftkühlung: 400G IB-Netzwerk.

Technische Daten

Technische Daten zu NVIDIA DGX B200

GPU 8x GPU NVIDIA Blackwell
GPU-Speicher 1.440 GB Gesamt-Grafikprozessorspeicher
Leistung 72 petaFLOPS-Training und 144 petaFLOPS-Inferenz
Energieverbrauch ~14,3 kW max.
CPU 2 Intel® Xeon® Platinum 8570-Prozessoren
112 Recheneinheiten insgesamt, 2,1 GHz (Basis),
4 GHz (max. Leistung)
Arbeitsspeicher Bis zu 4 TB
Vernetzung 4 x OSFP-Ports für 8 x NVIDIA ConnectX-7 VPI-Adapter mit einem Port
  • Bis zu 400 Gb/s InfiniBand/Ethernet
2 x QSFP112 NVIDIA BlueField-3-DPU mit zwei Anschlüssen
  • Bis zu 400 Gb/s InfiniBand/Ethernet
Management Network Integrierte Netzwerkkarte (NIC) mit 10 Gb/s und RJ45
100-Gb/s-Ethernet-Netzwerkkarte mit zwei Anschlüssen
Host Baseboard Management Controller (BMC) mit RJ45
Datenspeicher Betriebssystem: 2 × 1,9 TB NVMe M.2
Interner Speicher: 8 x 3,84 TB NVMe U.2
Software NVIDIA AI Enterprise: optimierte KI-Software
NVIDIA Base Command™: Orchestrierung, Planung und Clusterverwaltung
DGX OS/Ubuntu: Betriebssystem
Rack Units (RU) 10 RU
System Dimensions Höhe: 444 mm (17,5 in)
Breite: 482,2 mm (19,0 in)
Länge: 897,1 mm (35,3 in)
Operating Temperature 5–30 °C
Enterprise Support Drei Jahre Standard-Unternehmenssupport für Hardware und Software 
Zugriff auf Unternehmenssupport-Portal rund um die Uhr
Live-Support durch Mitarbeiter während der lokalen Geschäftszeiten

Ressourcen

Supercomputing für jedes Unternehmen

NVIDIA DGX SuperPOD

NVIDIA DGX SuperPOD™ mit DGX B200-Systemen, bietet führenden Unternehmen die Möglichkeit, eine große, schlüsselfertige Infrastruktur bereitzustellen, die sich auf die KI-Expertise von NVIDIA stützt.

Den Wert der DGX-Plattform maximieren

NVIDIA Enterprise Services bieten Support, Schulungen und professionelle Services für Ihre DGX-Infrastruktur. Mit der Unterstützung unserer NVIDIA-Experten bei jedem Schritt Ihrer KI-Reise können Sie dank der Enterprise Services Ihre Projekte schnell und erfolgreich zum Laufen zu bringen.

Erhalten Sie als DGX-Kunde ein exklusives Schulungsangebot

Erfahren Sie, wie Sie mit KI schneller bahnbrechende Innovationen erzielen, und erhalten Sie besondere Technikschulungen, die speziell für DGX-Kunden von den KI-Experten des NVIDIA Deep Learning Institute (DLI) angeboten werden.

Erste Schritte

Nächste Schritte

Holen Sie sich die NVIDIA DGX-Plattform

Die DGX-Plattform umfasst eine Vielzahl von Produkten und Dienstleistungen, die den Anforderungen jedes Unternehmens, das KI nutzt, gerecht werden.

Entdecken Sie die Vorteile der NVIDIA DGX-Plattform

NVIDIA DGX ist der bewährte Standard, auf dem Unternehmens-KI basiert.

Hilfe bei der Auswahl des richtigen Produkts oder Partners gefällig?

Sprechen Sie mit einem NVIDIA-Produktspezialisten über Ihre beruflichen Anforderungen.