NVIDIA HGX-2

NVIDIA Tesla V100 GPU 및 NVSwitch 기반

세계 최고의 AI 및 HPC용 다중 정밀도 컴퓨팅 플랫폼

AI와 고성능 컴퓨팅(HPC)이 세상을 변화시킴에 따라 새로운 시대의 지능이 도래하고 있습니다. 자율주행 차량부터 지구 기후 시뮬레이션에 이르기까지 해결하려면 막대한 컴퓨팅 리소스가 필요한 새로운 과제들이 속속 등장하고 있습니다. NVIDIA HGX-2는 고정밀도 과학적 컴퓨팅의 성능과 저정밀도 AI 컴퓨팅의 속도를 결합시킨 다중 정밀도 컴퓨팅을 위해 설계되어 이 방대한 과제들을 해결할 수 있는 유연하고 강력한 단일 플랫폼을 제공합니다.

세계 최대의 GPU를 가능하게 해줍니다

NVIDIA® Tesla® V100 GPU 16개와 NVIDIA NVSwitch™로 가속화된 HGX-2는 유례가 없는 컴퓨팅 성능, 대역폭 및 메모리 토폴로지를 갖춰 이러한 모델을 더욱 신속하고 효과적으로 훈련시킵니다. Tesla V100 GPU 16개는 총 0.5TB의 GPU 메모리가 탑재된 통합 2페타플롭스 가속기와 같이 작동하여 전산적으로 가장 집약적인 워크로드를 처리하고 "세계 최대의 GPU" 역할을 할 수 있습니다.

세계 최대의 GPU를 가능하게 해줍니다
차세대 AI의 성능 가속

차세대 AI의 성능 가속

AI 모델은 더욱 복잡해지고 있으며 제대로 작동하려면 대용량 메모리, 다중 GPU, GPU 간 고속 연결이 필요합니다. 모든 GPU 및 통합된 메모리를 연결하는 NVSwitch를 갖춘 HGX-2는 고급 AI를 더욱 신속하게 훈련할 강력한 성능을 제공합니다. 1개의 HGX-2가 300개의 CPU 구동 서버를 대체하여 데이터센터에서의 비용, 공간 및 에너지를 절감합니다.

최고 성능의 HPC 슈퍼노드

최고 성능의 HPC 슈퍼노드

HPC 애플리케이션이 초당 막대한 수의 계산을 수행하기 위해서는 컴퓨팅 성능을 갖춘 강력한 서버 노드가 필요합니다. 각 노드의 컴퓨팅 밀도를 증가시키면 필요한 서버의 수가 대폭 감소되어 데이터센터 소모 비용, 전력 및 공간 측면에서 막대한 절감 효과를 누릴 수 있습니다. HPC 시뮬레이션의 경우 고차원 행렬 곱셈 연산은 수많은 주변 장치에서 데이터를 가져올 수 있는 프로세서가 필요하기에 NVSwitch로 연결된 GPU가 이상적입니다. 1대의 HGX-2 서버는 CPU만으로 구성된 서버 60대를 대체합니다.

완전한 대역폭 컴퓨팅을 위한 NVSwitch

NVSwitch를 이용하면 모든 GPU가 초당 2.4TB의 전체 대역폭에서 다른 모든 GPU와 통신할 수 있으므로 가장 거대한 AI 및 HPC 문제도 해결할 수 있습니다. 모든 GPU가 누적 0.5TB의 HBM2 메모리에 완전히 액세스하여 가장 방대한 데이터세트도 처리할 수 있습니다. NVSwitch는 통합 서버 노드를 활성화함으로써 복잡한 AI 및 HPC 애플리케이션을 대폭 가속화합니다.

완전한 대역폭 컴퓨팅을 위한 NVSwitch

사양

HGX-1 HGX-2
성능 1 페타플롭스 텐서 연산
125 테라플롭스 단일 정밀도
62 테라플롭스 2배 정밀도
2 페타플롭스 텐서 연산
250 테라플롭스 단일 정밀도
125 테라플롭스 2배 정밀도
GPUs NVIDIA Tesla V100 8개 NVIDIA Tesla V100 16개
GPU 메모리 총 256GB 총 512GB
NVIDIA CUDA® 코어 40,960 81,920
NVIDIA Tensor 코어 5,120 10,240
통신 채널 NVLink 기반 하이브리드 큐브 메시총합 초당 300GB NVLink 기반 NVSwitch총합 초당 2.4TB

HGX-1 참조 아키텍처

NVIDIA Tesla GPU 및 NVLink 기반

NVIDIA HGX-1은 클라우드에서 AI를 가속화하는 데이터센터의 설계를 표준화한 참조 아키텍처입니다. 8개의 Tesla SXM2 V100 보드를 토대로 한, 확장성을 위한 하이브리드 큐브 메시 토폴로지, 1페타플롭스의 컴퓨팅 성능, 모듈식 설계는 하이퍼스케일 데이터센터에서 원활하게 작동하며 AI를 향한 빠르고 간편한 경로를 제공합니다.

데이터센터 에코시스템 강화

NVIDIA는 AI 클라우드 컴퓨팅을 빠르게 발전시키기 위해 Foxconn, HPE, Huawei, Inspur, Inventec, Lenovo, Quanta, Supermicro, Wistron 및 Wiwynn 등 세계 최고 제조업체와 협력하고 있습니다. NVIDIA는 HGX-2 GPU 베이스보드, 설계 지침, GPU 컴퓨팅 기술에 대한 얼리 액세스를 제공하여 파트너가 서버에 이를 통합하고, 데이터센터 에코시스템에 대규모로 이를 제공할 수 있도록 하고 있습니다.

데이터센터 에코시스템 강화

데이터센터 뉴스레터 구독하기

고성능 컴퓨팅, 딥 러닝, AI에 대한 최신 기술 트렌드를 확인하십시오.