最先端の AI モデル向けに特別に構築された AI ファクトリー。
NVIDIA DGX™ GB200 は、兆パラメーター規模の生成 AI モデルのトレーニングと推論のために特別に設計されています。ラックスケールのソリューションとして設計され、液冷式の各ラックには 36 個の NVIDIA GB200 Grace Blackwell Superchips (36 個の NVIDIA Grace CPU と 72 個の Blackwell GPU) が NVIDIA NVLink™ で一体に接続されています。複数のラックを NVIDIA Quantum InfiniBand で接続することで、数十万個の GB200 Superchips へとスケールアップすることができます。
利点
仕様
| GPU | 72 基の NVIDIA Blackwell GPU、36 基の NVIDIA Grace CPU |
| CPU コア | 2,592 個の Arm® Neoverse V2 コア |
| GPUメモリ | 帯域幅 | 最大 13.4 TB HBM3e | 576 TB/秒 |
| 合計高速メモリ | 30.2 TB |
| パフォーマンス | FP4 Tensor コア: 1,440 PFLOPS | 720 PFLOPS* FP8/FP6 Tensor コア: 720 PFLOPS | 360 PFLOPS* |
| 相互接続 | 72x OSFP シングルポート NVIDIA ConnectX®-7 VPI 400 Gb/s NVIDIA InfiniBand400 Gb/秒 NVIDIA InfiniBand 搭載 36x デュアルポートNVIDIA BlueField®-3 VPIと 200 Gb/s NVIDIA InfiniBand およびイーサネット |
| NVIDIA NVLink Switch システム | 9x L1 NVIDIA NVLink スイッチ |
| 管理ネットワーク | RJ45 搭載ホスト ベースボード管理コントローラー (BMC) |
| ソフトウェア | NVIDIA Mission Control NVIDIA AI Enterprise NVIDIA DGX OS / Ubuntu |
| エンタープライズ サポート | 3 年間のビジネス標準ハードウェアおよびソフトウェア サポート |
|
*仕様は疎 | 密で表示されます。 |
|
関連情報
NVIDIA DGX SuperPOD™ は、あらゆるユーザーとワークロードに妥協のないパフォーマンスを提供するターンキー AI データセンターインフラ ソリューションです。あらゆる DGX システムで構成可能な DGX SuperPOD は、業界実証済みの結果を持つ、最も要求の厳しい AI トレーニングと推論ワークロードのためのスケーラブルなパフォーマンスを備えたリーダーシップクラスの高速インフラを提供し、妥協のないパフォーマンスを実現します。
NVIDIA Mission Control は、ワークロードからインフラまで AI ファクトリーの運用を効率化し、世界クラスの専門知識をソフトウェアとして提供します。 NVIDIA Blackwell データセンターを強化し、推論とトレーニングのための即応性をもたらすとともに、インフラの回復力のためのフルスタックインテリジェンスを提供します。 あらゆる企業がハイパースケールの効率性で AI を運用でき、AI 実験を簡素化し加速することができます。
NVIDIA エンタープライズサービスは、お客様の NVIDIA DGX インフラに対するサポート、教育、およびインフラ専門家を提供します。AI 導入のあらゆる段階を支援できる NVIDIA エキスパートにより、エンタープライズ サービスはお客様のプロジェクトを迅速かつ確実に立ち上げ、実行するお手伝いをします。
今すぐ始める