NVIDIA DGX-1

AI 연구를 위한 필수 시스템

딥 러닝으로 향하는 가장 빠른 길

딥 러닝 플랫폼 구축이란 서버 및 GPU 선택보다 훨씬 중요합니다. 운영 중인 사업에 AI를 도입하는 과정에는 복잡한 소프트웨어와 하드웨어를 선택하여 통합하는 단계가 포함됩니다. NVIDIA DGX-1은 구매 즉시 간편하게 사용할 수 있는 솔루션으로 이니셔티브의 진행을 가속화하여 주 또는 월 단위가 아닌 수 시간 이내에 통찰을 이끌어내 드립니다.

혜택 알아보기

데이터를 지식으로 전환하기

NVIDIA DGX-1을 이용하면 몇 시간 또는 몇 분 이내에 대량 데이터 세트의 패턴을 빠르게 발견하여 새로운 지식 및 인사이트를 도출해낼 수 있습니다.

자연스레 증진되는 생산성

간소화된 워크플로우 및 향상된 팀 공동 작업으로 생산성을 즉시 늘릴 수 있습니다. DGX-1은 소프트웨어 엔지니어링 과정에 수십만 달러에 이르는 비용이 들 수 있고 오픈소스 소프트웨어의 안정화를 위해 수개월의 지연이 야기될 수 있는 일반적인 딥 러닝 설정의 비용을 절감하도록 설계되었습니다.

혁신적인 AI 성능

차세대 NVIDIA NVLink 및 새로운 Tensor Core 코어 아키텍처를 포함하는 최신 NVIDIA® Tesla® V100의 잠재력을 최대한 발휘해 보십시오. DGX-1은 오늘날 가장 인기 있는 프레임워크의 최적화된 버전이 포함된 NVIDIA GPU Cloud 딥 러닝 스택을 사용하여 다른 GPU 기반 시스템보다 4배 빠른 트레이닝 속도를 자랑합니다.

AI 기술 및 교육 지원

지속적인 테스트로 팀의 생산성을 극대화하세요. NVIDIA® DGX-1™을 통해 NVIDIA의 AI Expertise에 접속하여 작업을 신속하게 시작함으로써 보다 빠르게 인사이트를 얻을 수 있습니다.

NVIDIA DGX-1 딥 러닝 서버

DGX-1의 강력한 구성 요소 탐색.
NVIDIA TESLA V100
딥 러닝을 위해 설계된 Tensor 코어 기술을 통합하는 최초의 GPU 아키텍처로 이제 32GB 메모리와 함께 제공됩니다.
QUAD EDR IB
높은 대역폭과 짧은 대기 시간, 총 800Gb/s의 통신 속도.
INTEL XEON CPU 2개
부팅, 스토리지 관리, 딥 러닝 프레임워크 조정을 담당합니다.
차세대 NVIDIA NVLINK
기존의 PCIe Gen3 x16 상호 연결보다 10배 빠르며, GPU당 300GB/s에 달하는 고속 상호 연결.
랙 장치 인클로저 3개
소형 랙 공간에 적합, 최대 시스템 전원 3,500W 사용.

DGX-1 아키텍처의 발전

시스템 수준 사양
Tesla V100을 탑재한 NVIDIA DGX-1

TFLOPS(딥 러닝)

1000

CUDA 코어

40,960

Tensor 코어

5,120

NVLink 대 PCIe의 가속 성능 비교

10X

딥 러닝 트레이닝 가속

3X

NVIDIA® DGX 시스템에서의 Red Hat® Enterprise Linux ®

더욱 빠르게 반복하여 혁신하기

고성능 트레이닝으로 생산성을 향상하며 이는 인사이트를 도출하는 시간과 시장에 출시하는 시간이 더욱 단축된다는 의미입니다.

NVIDIA DGX-1은 140배 빠른 딥 러닝 트레이닝을 제공합니다

NVIDIA DGX POD

AI 엔터프라이즈를 위한 IT 승인 인프라

시작하기

NVIDIA DGX를 위한 협업 서비스

NVIDIA DGX 주문하기 오늘

유연한 임대 옵션 사용 가능