AI 工廠專為最先進的 AI 模型而打造。
NVIDIA DGX™ GB200 專為訓練及推論兆級參數生成式 AI 模型而打造。每台液冷式機架均採用機架規模解決方案設計,搭載 36 顆 NVIDIA GB200 Grace Blackwell 超級晶片,包括 36 顆 NVIDIA Grace CPU 和 72 顆 Blackwell GPU,並結合 NVIDIA NVLink™. 。可利用 NVIDIA Quantum InfiniBand 連接多台機架,擴充至數十萬顆 GB200 超級晶片。
優勢
規格
| GPU | 72 顆 NVIDIA Blackwell GPU,36 顆 NVIDIA Grace CPU |
| CPU 核心數 | 2,592 個 Arm® Neoverse V2 核心 |
| GPU 記憶體 | 頻寬 | 最高 13.4 TB HBM3e | 576 TB/s |
| 總高速記憶體 | 30.2 TB |
| 效能 | FP4 張量核心:1,440 PFLOPS | 720 PFLOPS* FP8 / FP6 張量核心:720 PFLOPS | 360 PFLOPS* |
| 互連 | 72 個 OSFP 單埠 NVIDIA ConnectX®-7 VPI 支援 400 Gb/s NVIDIA InfiniBand 36 個雙埠 NVIDIA BlueField®-3 VPI 支援 200 Gb/s NVIDIA InfiniBand 與 Ethernet |
| NVIDIA NVLink 交換器系統 | 9 個 L1 NVIDIA NVLink 交換器 |
| 管理網路 | 主機基板管理控制器 (BMC),具備 RJ45 接頭 |
| 軟體 | NVIDIA Mission Control NVIDIA AI Enterprise NVIDIA DGX OS / Ubuntu |
| 企業支援 | 三年標準級硬體與軟體企業支援服務 |
|
* 規格以稀疏 | 密集模式顯示 |
|
資源
NVIDIA DGX SuperPODTM 是一套完整的 AI 基礎架構解決方案,為每位使用者和每項工作負載提供極致效能。DGX SuperPOD 可透過任何 DGX 系統進行設定,提供領先業界的加速基礎架構,具可擴充效能,可用於最嚴峻的 AI 訓練和推論工作負載,並具備業界驗證的結果,讓 IT 能在不受影響的情況下提供效能。
NVIDIA Mission Control 透過軟體提供世界級專業技術,精簡從工作負載到基礎架構的 AI 營運。這項軟體支援 NVIDIA Blackwell 資料中心,實現推論與訓練的即時敏捷性,同時提供全堆疊智慧,提升基礎架構韌性。所有企業都能夠以超大規模效率執行 AI,簡化並加速 AI 實驗流程。
NVIDIA Enterprise 服務可為 NVIDIA DGX 基礎架構提供支援、教育與基礎架構專家。在 AI 之旅的每一步有 NVIDIA 專家隨侍,企業服務可助您快速、成功地啟動和執行專案。
開始使用