NVIDIA Tesla V100

역사상 가장 진보된 데이터센터 GPU

AI의 시대가 도래했습니다.

모든 산업 분야에서 인텔리전스를 원하고 있습니다. 끊임없이 증가하는 데이터의 호수에는 맞춤형 암 치료 요법, 대형 허리케인 예측, 자연스럽게 대화하는 가상 개인 비서 등 모든 산업 분야를 아울러 혁신의 기회를 제공할 수 있는 통찰력이 내재되어 있습니다. 데이터 과학자들이 필생의 과업을 달성하는 데 필요한 도구를 얻게 되면 이러한 기회가 실현될 수 있습니다.


NVIDIA® Tesla® V100은 AI, HPC 및 그래픽을 가속화하는 역대 데이터센터 GPU 가운데 세계적으로 가장 앞서 있습니다. 최신 NVIDIA Volta™ GPU 아키텍처가 탑재된 V100은 단일 GPU로 100개에 달하는 CPU 성능을 제공하여 데이터 과학자, 연구자 및 엔지니어가 이전에 이룰 수 없었던 과제에 도전할 수 있도록 돕습니다.

AI 트레이닝

AI 트레이닝

음성 인식에서 가상 개인 비서 교육과 자율 주행 차량에 대한 운전 교육에 이르기까지, 데이터 과학자는 AI를 사용하여 점점 더 복잡해지는 문제에 도전하고 있습니다. 이러한 유형의 문제를 해결하려면 현실성 있는 시간 안에 기하급수적으로 복잡해지는 딥 러닝 모델을 트레이닝해야 합니다.

640개 Tensor 코어를 탑재한 Tesla V100은 세계 최초로 딥 러닝 성능의 100테라플롭스(TFLOPS)란 장벽을 뛰어넘은 GPU입니다. 차세대 NVIDIA NVLink™는 최대 300GB/s로 여러 V100 GPU를 연결하여 세계에서 가장 강력한 컴퓨팅 서버를 구축합니다. 이전 시스템이라면 컴퓨팅 리소스를 몇 주 동안 소모했을 AI 모델을 이제는 며칠 안에 트레이닝할 수 있습니다. 트레이닝 시간이 이렇게 현저하게 줄어들었으니, AI는 이제 완전히 새로운 문제의 세계를 해결할 수 있을 것입니다.

AI 추론

AI 추론

하이퍼스케일 기업은 관련성이 가장 높은 정보, 서비스 및 제품과 고객을 연결하기 위해 AI를 활용하기 시작했습니다. 그러나 사용자 수요에 발맞춘다는 것은 벅찬 도전 과제입니다. 세계 최대 규모의 하이퍼스케일 기업을 예로 들자면, 모든 사용자가 하루에 단 3분 동안만 음성 인식 서비스를 사용할 경우 자사의 데이터센터 용량을 2배로 증대해야 한다고 최근 추정했습니다. 

Tesla V100은 기존 하이퍼스케일 서버 랙에서 최대한의 성능을 발휘하도록 설계되었습니다. AI를 핵심으로 삼은 Tesla V100 GPU는 CPU 서버보다 30배 향상된 추론 성능을 제공합니다. 처리량과 효율성이 이렇게 엄청나게 늘어난 덕택에 현실적으로 AI 서비스를 확장할 수 있게 되었습니다.

고성능 컴퓨팅

고성능 컴퓨팅(HPC)

HPC는 현대 과학을 지탱하는 핵심 기반입니다. 날씨 예측에서 약물 발견, 새로운 에너지원 발굴에 이르기까지 연구자들은 대규모 컴퓨팅 시스템을 사용하여 우리가 사는 세계를 시뮬레이션하고 예측합니다. AI는 연구자가 대용량 데이터를 분석할 수 있도록 기존 HPC를 확장함으로써 시뮬레이션만으로 실세계를 완전하게 예측할 수 없는 경우 신속하게 통찰력을 획득합니다.

Tesla V100은 AI와 HPC의 융합을 위해 제작되었습니다. 또한, HPC 시스템이 과학적 시뮬레이션을 위한 연산 과학과 데이터에서 통찰을 찾는 데이터 과학 분야 모두에서 뛰어난 성능을 발휘할 수 있는 플랫폼을 제공합니다. 통합 아키텍처 내에 NVIDIA CUDA® 코어와 Tensor 코어를 페어링하고 Tesla V100 GPU를 탑재한 단일 서버는 기존의 모든 HPC 및 AI 워크로드를 처리하는 면에서 수백 개의 상용 CPU 기반 서버를 대체할 수 있습니다. 모든 연구자와 엔지니어는 이제 기술적 요구 사항이 매우 높은 작업을 AI 슈퍼컴퓨터를 활용하여 처리할 수 있습니다.

데이터센터 GPU

데이터센터 Tesla V100 NVLink

NVLINK용 NVIDIA TESLA V100

딥 러닝을 위한 궁극의 성능.

데이터센터 Tesla V100 PCle

PCle용 NVIDIA TESLA V100

모든 워크로드에 대한 최고의 다용성.

NVIDIA Tesla V100 사양

Tesla V100

PERFORMANCE
with NVIDIA GPU Boost™

Double-Precision

7.5 TeraFLOPS

Single-Precision

15 TeraFLOPS

Deep Learning

120 TeraFLOPS

INTERCONNECT BANDWIDTH
Bi-Directional 

NVLink

300 GB/s

PCIe

32 GB/s

MEMORY
CoWoS Stacked HBM2

CAPACITY

16 GB

BANDWIDTH

900 GB/s

POWER
Max Consumption


300 WATTS

Volta 기반 NVIDIA DGX
시스템

딥 러닝 뉴스
수신 등록