개요
에이전틱 AI와 추론 모델은 컴퓨팅의 한계를 새롭게 정의하고 있습니다. 하지만 이러한 혁신을 완벽히 활용하려면 시스템 내부에서 스스로 논리적 단계를 처리하고 모델과 에이전트 간의 정보를 신속하게 전달할 수 있는 기업용 인프라가 필수적입니다. 인프라는 학습부터 사후 학습, 추론 전반에 걸쳐 발생하는 통신과 리소스 조율, 메모리 이동 및 지연 시간 문제를 경제적으로 해결해야 합니다.
NVIDIA DGX™ Rubin NVL8은 에이전틱 AI 시대의 성공을 위한 청사진을 제공합니다. NVIDIA Rubin 아키텍처를 기반으로 설계된 DGX Rubin NVL8은 모든 AI 워크로드를 가속화하고 거대 지능을 구현하기 위해 최적화된 턴키 인프라 솔루션입니다.
기능
8개의 NVIDIA Rubin GPU를 탑재한 DGX Rubin NVL8 시스템은 400 페타플롭스(petaFLOPS)의 추론 성능과 초당 160 테라바이트(TB/s)의 고대역폭 메모리(HBM)를 제공하여, 인프라 전반에서 데이터를 최대한 신속하게 전송합니다. DGX Rubin NVL8은 6세대 NVIDIA NVLink™를 활용하여 대규모 모델 병렬 처리를 위한 원활한 피어 투 피어(P2P) 통신을 보장합니다.
DGX Rubin NVL8은 AI 라이프사이클 전반에 걸쳐 성능을 최적화하여 경제적 실행 능력을 획기적으로 향상합니다. 이 플랫폼은 추론 워크플로우를 위한 특수 멀티 에이전트 엔진과 하드웨어의 메모리 이동을 최적화하는 전용 강화 학습 엔진을 갖추고 있으며, NVIDIA Blackwell 기반 시스템 대비 최대 3배 빠른 강화 학습 성능을 제공합니다.
NVIDIA Mission Control™은 DGX Rubin NVL8 구성부터 시설 통합, 클러스터 및 워크로드 관리에 이르기까지 운영의 모든 측면을 가속화합니다. 지능형 통합 소프트웨어를 기반으로, 기업은 냉각 및 전력 이벤트를 제어하여 인프라 회복 탄력성을 재정의할 수 있습니다.
엔터프라이즈 AI를 위해 처음부터 구축된 NVIDIA DGX 플랫폼은 NVIDIA DGX SuperPOD™를 갖추고 있으며, 최고의 NVIDIA 소프트웨어, 인프라 및 전문성을 최신 통합 AI 개발 솔루션에 결합합니다.
사양
| GPU | 8x NVIDIA Rubin GPUs |
| 총 GPU 메모리 | 대역폭 | 2.3TB | 160TB/s |
| 성능 | NVFP4 Inference: 400 PF NVFP4 Training: 280 PF FP8/FP6 Training: 140 PF |
| CPU | 2x Intel® Xeon® 6776P 프로세서 |
| NVIDIA NVLink Switch 시스템 | 4X |
| NVIDIA NVLink 대역폭 | 28.8 TB/s의 총 대역폭 |
| 시스템 전력 사용량 | ~24 kW |
| 네트워킹 | 8x 싱글 포트 NVIDIA® ConnectX®-9 VPI를 제공하는 8x OSFP 포트
|
| 소프트웨어 | NVIDIA DGX OS, Ubuntu, Red Hat Enterprise Linux, Rocky |
|
*사양은 변경될 수 있습니다. |
|
주요 프로그램
NVIDIA 전문가에게 NVIDIA DGX Rubin NVL8에 대해 상담해보세요.
엔터프라이즈 AI 구축의 검증된 표준, NVIDIA DGX를 선택해야 하는 이유를 확인해 보세요.
온프레미스에서 호스팅 솔루션에 이르기까지 유연한 배포 옵션으로 AI의 잠재력을 최대한 활용해 보세요.