새로운 차원의 사용자 참여를 강화하십시오.

딥 러닝 추론 작업에서 처리량과 반응형 경험을 향상합니다.

AI는 끊임없이 많은 양의 데이터를 처리하면서도 빠른 응답을 제공해야 합니다. 추론을 위한 세계에서 가장 빠르고 효율적인 데이터센터 플랫폼인 NVIDIA® Tesla®, 로 이러한 과제를 해결하십시오. Tesla는 모든 딥 러닝 워크로드를 지원하며 최고의 처리량, 최고의 효율성 및 최상의 유연성을 결합하여 AI 기반 경험을 제공하는 최적의 추론 솔루션을 제공합니다.

NVIDIA 데이터센터 추론 플랫폼

TESLA V100
범용 데이터센터용

Tesla V100은 GPU당 125테라플롭스의 추론 성능을 제공합니다. 8개의 Tesla V100이 있는 단일 서버는 페타플롭스 컴퓨팅 성능을 제공할 수 있습니다.

TESLA P4
초고효율 스케일아웃 서버용

Tesla P4는 모든 유형의 스케일아웃 서버를 가속화하도록 개발되어 CPU 대비 60배 높은 경이로운 에너지 효율성을 제공합니다.

TESLA P40
추론 처리 서버용

Tesla P40은 뛰어난 사용자 환경을 위해 47TOPS(Tera Operations Per Second) 추론 성능, INT8 정밀도 및 24GB 온보드 메모리를 제공합니다.

기능 및 이점

50배 빠른 처리량으로 폭발적으로 증가하는 워크로드 소화 가능

Volta 기반 Tesla V100 GPU를 사용하면 데이터센터가 딥 러닝 워크로드 처리량을 현저히 높일 수 있으며, 오늘날의 데이터 홍수 속에서 인텔리전스를 추출할 수 있습니다. 딥 러닝 워크로드 처리에서, 단 한 개의 Tesla V100을 탑재한 서버 한 대가 CPU로만 구성된 서버를 최대 50대까지 대체할 수 있어 처리량을 대폭 높이는 동시에 취득 비용을 절감할 수 있습니다.

저전력 스케일아웃 서버에 적합한 비교 불가 수준의 효율성

초고효율 Tesla P4 GPU로 소형 폼 팩터의 50/75W 전원형 설계가 적용된 밀도 최적화 스케일아웃 서버의 속도를 한층 끌어올릴 수 있습니다. 딥 러닝 추론 작업 시 CPU 대비 52배 높은 경이로운 에너지 효율성을 제공합니다. 이를 통해 하이퍼스케일 고객에게 기존 인프라를 포함하여 이루어지는 서버 확장을 지원하며, AI 기반 애플리케이션에 대한 폭발적인 수요 증가에 대응할 수 있습니다.

새로운 AI 기반 동영상 서비스에 적합한 전용 디코드 엔진

Tesla P4 GPU는 실시간으로 최대 39개의 HD 비디오 스트림을 분석할 수 있습니다. 전용 하드웨어 가속 디코드 엔진으로 구동되므로 추론을 수행하는 NVIDIA CUDA® 코어와 병렬로 작동합니다. 딥 러닝을 동영상 파이프라인에 통합함으로써, 고객은 새로운 차원의 스마트하고 혁신적인 동영상 서비스를 사용자들에게 제공하여 동영상 검색과 다른 동영상 관련 서비스를 원활하게 제공할 수 있습니다.

NVIDIA TensorRT 및 DeepStream SDK로 더욱 빨라진 배포

NVIDIA TensorRT 는 딥 러닝 애플리케이션의 프로덕션 배포를 위해 개발된 고성능 뉴럴 네트워크 추론 엔진입니다. 프로덕션 배포용 딥 러닝 모델을 간소화하기 위한 라이브러리를 갖추고 있으며, 보통 32비트 또는 16비트 데이터의 트레이닝된 뉴럴 네트워크를 최적화해 정밀도를 낮춘 Tesla P4의 INT8 또는 Tesla V100의 FP16 연산을 지원합니다. NVIDIA DeepStream SDK 는 Tesla GPU의 성능을 조절해 디코드와 동영상 스트림 분석이 동시에 이루어지도록 합니다.

성능 사양

Tesla V100: 범용 데이터센터 GPU 초고효율 스케일아웃 서버용 Tesla P4 추론 처리 서버용 Tesla P40
단일 정밀도 성능(FP32) 14테라플롭스(PCIe)
15.7테라플롭스(SXM2)
5.5테라플롭스 12테라플롭스
절반 정밀도 성능(FP16) 112테라플롭스(PCIe)
125테라플롭스(SXM2)
정수 연산(INT8) 22TOPS* 47TOPS*
GPU 메모리 16GB HBM2 8 GB 24 GB
메모리 대역폭 900GB/s 192GB/s 346GB/s
시스템 인터페이스/폼 팩터 듀얼 슬롯, 풀하이트 PCI Express 폼 팩터 SXM2/NVLink 로우 프로필 PCI Express 폼 팩터 듀얼 슬롯, 풀하이트 PCI Express 폼 팩터
전력 250W(PCIe)
300W(SXM2)
50W/75W 250W
하드웨어 가속 동영상 엔진 디코드 엔진 1개, 인코드 엔진 2개 디코드 엔진 1개, 인코드 엔진 2개

*Tera-Operations per Second (Tera-Operationen pro Sekunde) mit Boost-Taktung

데이터센터 추론에서 가장 발전된 기술

iFLYTEK

iFLYTEK의 Voice Cloud Platform에서는 트레이닝 및 추론을 위해 NVIDIA Tesla P4 및 P40 GPU를 사용하여 음성 인식 정확도를 높입니다.

VALOSSA

NVIDIA Inception 프로그램 스타트업 회사인 Valossa에서는 NVIDIA GPU를 사용하여 비디오 데이터에서 시청자 행동을 예측하고 딥 러닝을 가속화합니다.

JD.COM

JD에서는 NVIDIA AI 추론 플랫폼을 사용하여 비디오 감지 효율성을 40배 향상합니다.

지금 딥 러닝 추론 솔루션을 최적화하십시오.

지금 딥 러닝 추론용 Tesla V100, P4 및 P40을 구매하실 수 있습니다.