AI 인프라를 위한 유니버설 시스템
NVIDIA DGX™ A100 은 모든 AI 워크로드를 위한 유니버설 시스템으로, 세계 최초의 5페타플롭스 AI 시스템을 통해 유례없는 컴퓨팅 밀도, 성능, 유연성을 제공합니다. NVIDIA A100 Tensor 코어 GPU를 탑재한 DGX A100은 기업이 NVIDIA AI 전문가의 직접적인 지원과 함께 훈련에서 추론, 분석에 이르기까지 배포하기 쉬운 통합 AI 인프라를 구축할 수 있게 합니다.
분석에서 훈련과 추론에 이르기까지 NVIDIA DGX A100은 모든 AI 인프라를 위한 유니버설 시스템입니다. 6U 폼 팩터에 5페타플롭스의 AI 성능을 갖추고, 레거시 인프라 사일로를 모든 AI 워크로드에 사용 가능한 단일 플랫폼으로 대체한 NVIDIA DGX A100은 컴퓨팅 밀도에 새로운 기준을 제시합니다.
NVIDIA DGXperts는 20,000명 이상의 AI 전문가가 지난 10년간 쌓은 풍부한 경험으로 고객이 DGX 투자 가치를 극대화하도록 지원하는 글로벌 팀입니다.
NVIDIA DGX A100은 NVIDIA A100 Tensor Core GPU를 기반으로 구축된 세계 최초의 AI 시스템입니다. 8개의 A100 GPU와 320GB 및 640GB GPU 메모리 옵션을 통합한 이 시스템은 전례 없는 가속을 제공하며 NVIDIA CUDA-X™ 소프트웨어와 엔드 투 엔드 NVIDIA 데이터 센터 솔루션 스택에 완벽하게 최적화되어 있습니다.
NVIDIA DGX A100에는 NVIDIA® ConnectX®-7 InfiniBand/이더넷 네트워크 어댑터가 탑재되어 있습니다. 최대 양방향 대역폭은 500GB/s입니다. 이는 DGX A100을 엔터프라이즈에서 확장 가능한 AI 인프라의 청사진인 NVIDIA DGX SuperPOD™ 같은 대형 AI 클러스터의 기초 구성 요소이게 하는 많은 기능 중 하나입니다.
NVIDIA AI 스타터 키트는 세계적인 수준의 AI 플랫폼에서부터 최적화된 소프트웨어 및 도구를 거쳐 컨설팅 서비스에 이르는 팀에 필요한 모든 것을 제공합니다. 따라서 AI 이니셔티브를 빠르게 시작할 수 있습니다. AI 플랫폼을 구축하는 데 시간과 비용을 낭비하지 마세요. 하루 안에 설치 및 가동하고, 일주일 안에 사용 사례를 정의하고, 보다 빠르게 모델을 상용화할 수 있습니다.
NVIDIA DGX A100 시스템에 대해 자세히 알아보기
DLRM 훈련
대규모 모델에서 AI 교육을 위한 최대 3배 높은 처리량
HugeCTR 프레임워크의 DLRM, 정밀도 = FP16 | 1x DGX A100 640GB 배치 크기 = 48 | 2 | DGX A100 320GB 배치 크기 = 32 | 1 | DGX-2(16x V100 32GB) 배치 크기 = 32. GPU 수로 정규화된 속도 향상
RNN-T 추론: 단일 스트림
AI 추론을 위한 최대 1.25배 높은 처리량
(1/7) MIG 슬라이스로 측정한 MLPerf 0.7 RNN-T. 프레임워크: TensorRT 7.2, 데이터 집합 = LibriSpeech, 정밀도 = FP16.
빅데이터 분석 벤치마크
CPU 대비 최대 83배 높은 처리량, DGX A100 320GB보다 2배 높은 처리량
빅 데이터 분석 벤치마크 | 30개 분석 소매 쿼리, ETL, ML, 10TB 데이터 집합에 대한 NLP | CPU: 19x Intel Xeon Gold 6252 2.10 GHz, Hadoop | 16x DGX-1 (각 8x V100 32GB), RAPIDS/Dask | 12x DGX a 100 6GB 및 320GB GPU 수로 정규화된 속도 향상
1총 640GB의 GPU 메모리를 탑재한 NVIDIA A100 GPU 8개 GPU당 NVLink 12개, GPU 간 양방향 대역폭 600GB/s
2NVIDIA NVSwitch 6개 양방향 대역폭 4.8TB/s, 이전 세대 NVSwitch보다 2배 증가
3 NVIDIA CONNECTX-7 200Gb/s 네트워크 인터페이스 10개 양방향 대역폭 최대 500GB/s
4 듀얼 64코어 AMD CPU 및 2TB 시스템 메모리 3.2배 더 많은 코어로 가장 집약적인 AI 작업 처리
5 30 TB Gen4 NVME SSD 최대 50GB/s의 대역폭 Gen3 NVME SSD보다 2배 빠른 속도
새로운 NVIDIA DGX A100에 대해 자세히 알아보세요.
NVIDIA A100 Tensor 코어 GPU는 AI, 데이터 분석 및 고성능 컴퓨팅(HPC)을 위한 유례없는 가속화를 제공하여 세계에서 가장 까다로운 컴퓨팅 문제를 처리합니다. 3세대 NVIDIA Tensor 코어가 막대하게 성능을 향상하므로 A100 GPU는 수천 개 단위로 효율적으로 확장하거나 Multi-Instance GPU 를 통해 7개의 더 작은 인스턴스로 분할되어 모든 규모의 워크로드를 가속화할 수 있습니다.
MIG(Multi-Instance GPU) 덕분에 DGX A100의 A100 GPU 8개는 무려 56개의 GPU 인스턴스로 구성될 수 있으며 각 GPU 인스턴스는 고유의 고대역폭 메모리, 캐시, 컴퓨팅 코어로 완전히 격리될 수 있습니다. 이는 관리자가 여러 워크로드를 위해 보장된 서비스 품질(QoS)의 GPU를 적절한 크기로 사용할 수 있게 합니다.
DGX A100에서 3세대 NVIDIA® NVLink®는 GPU 간의 직접적인 대역폭을 2배인 600GB/s로 증가시키며 이는 PCIe Gen 4의 10배에 달합니다. DGX A100 는 이전 세대보다 2배 빠른 차세대 NVIDIA NVSwitch™를 탑재합니다.
DGX A100은 200GB/s로 작동하는 최신 NVIDIA ConnectX-7 InfiniBand 및 VPI(InfiniBand 또는 이더넷) 어댑터를 탑재하여 대규모 AI 워크로드를 위한 고속 구조를 생성합니다.
DGX A100은 AI 조정된 기본 운영 체제, 필요한 모든 시스템 소프트웨어, GPU 가속 애플리케이션, 사전 트레이닝된 모델 및 NGC™의 기타 기능 등 테스트를 거쳐 최적화된 DGX 소프트웨어 스택을 통합합니다.
DGX A100은 자체 암호화 드라이브, 서명된 소프트웨어 컨테이너, 안전한 관리 및 모니터링 등 모든 주요 하드웨어 및 소프트웨어 구성 요소를 보호하는 다단계 접근 방식으로 AI 배포를 위한 가장 든든한 보안 방식을 제공합니다.
NVIDIA DGX 시스템에 제공되는 엔터프라이즈급 지원에 대해 알아보세요.
선도적인 AI 인프라 구축
NVIDIA 개인정보보호정책