NVIDIA DGX B200

NVIDIA DGX B200

Le basi per il tuo centro di eccellenza IA.

Prestazioni rivoluzionarie supportate dall'innovazione continua

NVIDIA DGX™ B200 è una piattaforma IA unificata per flussi di sviluppo-distribuzione per aziende di qualsiasi dimensione in qualsiasi fase del percorso verso l'IA. Dotato di otto GPU NVIDIA B200 Tensor Core interconnesse con NVIDIA® NVLink®di quinta generazione, DGX B200 offre prestazioni all'avanguardia, con prestazioni di training 3 volte superiori e prestazioni di inferenza 25 volte superiori rispetto alle generazioni precedenti. Sfruttando l'architettura per GPU NVIDIA Blackwell, DGX B200 è in grado di gestire carichi di lavoro diversificati, tra cui modelli linguistici di grandi dimensioni, sistemi recommender e chatbot, il che lo rende ideale per le aziende intente ad accelerare la trasformazione con l'IA.

Infrastruttura IA per qualsiasi carico di lavoro

Scopri come DGX B100 consente alle aziende di accelerare qualsiasi carico di lavoro IA, dalla preparazione dei dati al training e all'inferenza.

Esplora gli esempi di distribuzioni aziendali di successo.

Scopri come la piattaforma NVIDIA DGX e NVIDIA NeMo™ hanno potenziato le aziende leader.

Vantaggi

Una piattaforma unificata

Un'unica piattaforma dallo sviluppo alla distribuzione

Le aziende necessitano un'enorme potenza di calcolo per gestire set di dati IA complessi in tutte le fasi dello sviluppo IA, dal training alla calibrazione, fino all'inferenza. Con NVIDIA DGX B200, le aziende possono dotare gli sviluppatori di un'unica piattaforma progettata per accelerare i flussi di lavoro.

La potenza delle prestazioni dell'IA

Basato sui progressi dell'architettura NVIDIA Blackwell nel computing, DGX B200 offre prestazioni di training 3 volte superiori e prestazioni di inferenza 15 volte superiori rispetto a DGX H100. Come base di NVIDIA DGX BasePOD™ e NVIDIA DGX SuperPOD™, DGX B200 offre prestazioni all'avanguardia per qualsiasi carico di lavoro.

Standard di infrastruttura comprovato

DGX B200 è una piattaforma hardware e software completamente ottimizzata che include lo stack software completo NVIDIA AI, tra cui NVIDIA Base Command e il software NVIDIA AI Enterprise, un ricco ecosistema di supporto di terze parti e l'accesso ai consigli degli esperti dei servizi professionali NVIDIA.

Prestazioni

Prestazioni di nuova generazione basate su DGX B200

Inferenza di modelli linguistici di grandi dimensioni in tempo reale

Prestazioni previste soggette a modifica. Latenza token-to-token (TTL) = 50 ms in tempo reale, latenza primo token (FTL) = 5 s, lunghezza sequenza di input = 32.768, lunghezza sequenza di output = 1.028, 8 GPU DGX H100 a otto vie con raffreddamento ad aria vs. 1 GPU DGX B200 a otto vie con raffreddamento ad aria, per il confronto delle prestazioni della GPU.

Prestazioni di training con IA super potenti

Prestazioni previste soggette a modifica. Scalabilità 32.768 GPU, cluster 4.096 x DGX H100 a 8 vie con raffreddamento ad aria: rete 400G IB, cluster 4.096 x 8 vie DGX B200 con raffreddamento ad aria: rete 400G IB.

Specifiche

Specifiche di NVIDIA DGX B200

GPU 8 GPU NVIDIA B200 Tensor Core
Memoria della GPU 1,440 GB di memoria GPU totale
Prestazioni 76 petaFLOPS di training a FP8 e 144 petaFLOPS di inferenza
Consumo energetico ~14,3 kW max
CPU 2 Processori Intel® Xeon® Platinum 8570
112 Core totali, 2,1 GHz (base),
4 GHz (boost massimo)
Memoria di sistema Fino a 4 TB
Networking 4 porte OSFP per 8 NVIDIA ConnectX-7 VPI a porta singola
  • Fino a 400 Gb/s InfiniBand/Ethernet
2 DPU QSFP112 NVIDIA BlueField-3 dual-port
  • Fino a 400 Gb/s InfiniBand/Ethernet
Management Network NIC integrata da 10 Gb/s con RJ45
NIC Ethernet 100 Gb/s dual-port
Controller di gestione della scheda madre in host (BMC) con RJ45
Storage SO: 2 NVMe M.2 da 1,9 TB
Memoria interna: 8 NVMe U.2 da 3,84 TB
Software NVIDIA AI Enterprise: software IA ottimizzato
NVIDIA Base Command™: orchestrazione, pianificazione e gestione cluster
DGX OS/Ubuntu: sistema operativo
Rack Units (RU) 10 RU
System Dimensions Altezza: 444 mm
Larghezza: 482,2 mm
Lunghezza: 897,1 mm
Operating Temperature 5-30 °C (41-86 °F)
Enterprise Support Tre anni di supporto Enterprise Business-Standard per hardware e software
Accesso 24/7 al portale del supporto Enterprise
Supporto con operatore in tempo reale durante l'orario di lavoro locale

Risorse

Il supercomputing distribuito in ogni impresa

NVIDIA DGX SuperPOD

NVIDIA DGX SuperPOD™ basato su sistemi DGX B200 consente alle aziende leader di distribuire un'infrastruttura chiavi in mano su larga scala supportata dalle competenze IA di NVIDIA.

Massimizza il valore della piattaforma DGX

Gli NVIDIA Enterprise Services offrono supporto, formazione e servizi professionali per la tua infrastruttura DGX. Con gli esperti NVIDIA disponibili in ogni fase del tuo percorso con l'IA, gli Enterprise Services possono aiutarti a realizzare i tuoi progetti in modo rapido e raggiungere il successo.

Ricevi un'offerta di formazione esclusiva come cliente DGX

Scopri come ottenere risultati all'avanguardia con l'IA, formazione tecnica specializzata più veloce, offerta in esclusiva ai clienti DGX dagli esperti di IA di NVIDIA Deep Learning Institute (DLI).

Inizia

Fai il prossimo passo

Esplora la piattaforma NVIDIA DGX

La piattaforma DGX è costituita da una vasta gamma di prodotti e servizi per soddisfare le esigenze di ogni azienda IA.

Scopri i vantaggi della piattaforma NVIDIA DGX

NVIDIA DGX è lo standard comprovato per l'IA aziendale.

Hai bisogno di aiuto per scegliere il prodotto o il partner giusto?

Parla con uno specialista di prodotti NVIDIA delle tue esigenze professionali.