NVIDIA のアクセラレーテッド コンピューティング プラットフォームは、ディープラーニングと機械学習トレーニングを高速化するための NVIDIA CUDA 最適化ライブラリの広範なコレクションと、NVIDIA DGX Station の膨大なメモリとスーパーチップ スループットを組み合わせることで、予測保守の開発から医療用画像分析、自然言語処理アプリケーションまで、あらゆる業界で究極の AI 開発プラットフォームを提供します。
NVIDIA Grace Blackwell を搭載した究極のデスクサイド AI スーパーコンピューター。
システムの注文については、パートナーにお問い合わせください。
概要
NVIDIA DGX Station™ は、AI の構築と実行に特化した究極のデスクサイド スーパーコンピューターです。NVIDIA GB300 Grace™ Blackwell Ultra デスクトップ スーパーチップを搭載し、748 GB の大容量コヒーレント メモリと最大 20 ペタFLOPS の AI コンピューティング パフォーマンスを特徴としており、大規模な AI ワークロードのシームレスな開発と実行が可能で、最大 1 兆のパラメータを持つモデルをサポートします。NVIDIA AI ソフトウェア スタックが事前構成されているため、開発者、研究者、データ サイエンティストは、大規模な AI モデルや長時間実行される AI エージェントをローカルで迅速に開発、ファインチューニング、推論し、データセンターまたはクラウドにシームレスにデプロイできます。
CAE (コンピューター支援エンジニアリング) などの HPC (ハイパフォーマンス コンピューティング) ワークロードの場合、NVIDIA GB200 開発者キットは、デスクサイドシステムでアプリケーションの開発、実行、テストに役立つ強力なパフォーマンス、FP64 コンピューティング、大容量コヒーレント メモリを提供します。
NVIDIA GPU
1x NVIDIA Blackwell Ultra
NVIDIA CPU
1x Grace 72 コア Neoverse V2
GPU メモリ
252 GB HBM3e | 7.1 TB/秒
CPU メモリ
496 GB LPDDR5X | 396 GB/秒
NVLink-C2C
900 GB/秒
ネットワーキング | ピーク帯域幅
NVIDIA ConnectX-8 SuperNIC | 最大 800 Gb/s | イーサネット
サポートされている OS
NVIDIA AI 開発者ツールを搭載の Ubuntu
MIG
7
FP4 Tensor コア
20 | 153 PFLOPS
FP8 / FP6 Tensor コア
10 TFLOPS
INT8 Tensor コア
330 TOPS
FP16/BF16 Tensor コア
5 PFLOPS
TF32 Tensor コア
2.5 PFLOPS
FP32
80 TFLOPS
FP64 / FP64 Tensor コア
1.3 TFLOPS
システム総電力
1,600 W
デコーダー
7 NVDEC
7 nvJPEG
サポートされる RTX PRO GPU4
NVIDIA RTX PRO 6000 Workstation Edition
RTX PRO 6000 Blackwell Max-Q Workstation Edition
RTX PRO 4000 Blackwell SFF Edition
RTX PRO 2000 Blackwell
ストレージ
4x M.2 Gen 5 スロット
イーサネット ポート
2x QSFP112 (ポートあたり 400 Gbps)
1x RJ45 10 GbE
1x RJ45 1 GbE (システム管理用 BMC)
PCIe スロット
1x PCIe Gen 5 x16
2x PCIe Gen 5 x16 (x8 結線)
追加のポートとコネクタ4
前面 IO: 2x USB Type C (USB3.1)、2x USB Type A (USB3.1)、オーディオ
後面 IO: 4x USB Type A、USB Micro-B (BMC) mDP5 (BMC)、オーディオ
厳選されたプレイブックを活用し、DGX Station でさまざまな AI プロジェクトを開始しましょう。 プレイブックには、実現可能な手法を示すステップバイステップのレシピが含まれています。