딥 러닝과 머신 러닝 학습을 가속화하는 방대한 NVIDIA CUDA 최적화 라이브러리와, 막대한 메모리 및 슈퍼칩 처리량을 갖춘 NVIDIA DGX Station이 결합되어, NVIDIA의 가속 컴퓨팅 플랫폼은 예지 정비 개발부터 의료 영상 분석, 자연어 처리(NLP) 애플리케이션에 이르기까지 다양한 산업 전반에서 궁극의 AI 개발 플랫폼을 제공합니다.
NVIDIA Grace Blackwell로 구동되는 궁극의 데스크사이드 AI 슈퍼컴퓨터입니다.
시스템 주문은 파트너에게 문의하세요.
개요
NVIDIA DGX Station™은 AI를 구축하고 실행을 위한 궁극의 데스크사이드 슈퍼컴퓨터입니다. NVIDIA GB300 Grace™ Blackwell Ultra 데스크톱 슈퍼칩으로 구동되며, 748GB에 달하는 방대한 코히어런트 메모리와 최대 20페타FLOPS의 AI 연산 성능을 제공해, 최대 1조 개 파라미터의 모델을 지원하는 대규모 AI 워크로드를 끊김 없이 개발하고 실행할 수 있습니다. NVIDIA AI 소프트웨어 스택이 사전 구성되어 있어, 개발자, 연구원, 그리고 데이터 과학자들은 대형 AI 모델과 장시간 실행되는 AI 에이전트를 로컬에서 신속하게 개발, 파인튜닝 및 추론을 수행할 수 있으며, 이를 데이터 센터나 클라우드에 끊김 없이 배포할 수 있습니다.
CAE(컴퓨터 지원 엔지니어링)와 같은 HPC(고성능 컴퓨팅) 워크로드를 위해, NVIDIA GB200 개발자 키트는 데스크사이드 시스템에서 애플리케이션을 개발, 실행, 테스트할 수 있도록 강력한 성능, FP64 연산, 대용량 일관성 메모리를 제공합니다.
NVIDIA GPU
1x NVIDIA Blackwell Ultra
NVIDIA CPU
1x Grace 72-Core Neoverse V2
GPU 메모리
252 GB HBM3e | 7.1 TB/s
CPU 메모리
496 GB LPDDR5X | 396 GB/s
NVLink-C2C
900GB/s
네트워킹 | 최대 대역폭
NVIDIA ConnectX-8 SuperNIC | 최대 800Gb/s | 이더넷
지원되는 OS
NVIDIA AI 개발자 도구들을 활용한 Ubuntu
MIG
7
FP4 Tensor 코어
20 | 153 PFLOPS
FP8 / FP6 Tensor 코어
10PFLOPS
INT8 Tensor 코어
330 TOPS
FP16/BF16 Tensor 코어
5PFLOPS
TF32 Tensor 코어
2.5 PFLOPS
FP32
80 TFLOPS
FP64 / FP64 Tensor 코어
1.3TFLOPS
총 시스템 전력
1,600 W
디코더
7 NVDEC
7 nvJPEG
지원되는 RTX PRO GPU4
NVIDIA RTX PRO 6000 Workstation Edition
RTX PRO 6000 Blackwell Max-Q Workstation Edition
RTX PRO 4000 Blackwell SFF Edition
RTX PRO 2000 Blackwell
스토리지
4개의 M.2 Gen 5 슬롯
이더넷 포트
2x QSFP112(포트당 400 Gbps)
1x RJ45 10 GbE
1x RJ45 1 GbE(시스템 관리를 위한 BMC)
PCIe 슬롯
1개의 PCIe Gen 5 x16
2개의 PCIe Gen 5 x16 (x8 electrical)
추가 포트 및 커넥터4
전면 IO: 2개의 USB Type C(USB3.1), 2개의 USB Type A(USB3.1), 오디오
후면 IO: 4개의 USB Type A, USB Micro-B(BMC) mDP5(BMC), 오디오
엄선된 플레이북을 활용해 DGX Station에서 다양한 AI 프로젝트를 시작해 보세요. 플레이북에는 가능한 것들의 범위를 보여주는 단계별 실습 가이드가 포함되어 있습니다.