AI는 끊임없이 많은 양의 데이터를 처리하면서도 빠른 응답을 제공해야 합니다. 추론을 위한 세계에서 가장 빠르고 효율적인 데이터센터 플랫폼인 NVIDIA® Tesla®, 로 이러한 과제를 해결하십시오. Tesla는 모든 딥 러닝 워크로드를 지원하며 최고의 처리량, 최고의 효율성 및 최상의 유연성을 결합하여 AI 기반 경험을 제공하는 최적의 추론 솔루션을 제공합니다.
Tesla V100은 GPU당 125테라플롭스의 추론 성능을 제공합니다. 8개의 Tesla V100이 있는 단일 서버는 페타플롭스 컴퓨팅 성능을 제공할 수 있습니다.
Tesla P4는 모든 유형의 스케일아웃 서버를 가속화하도록 개발되어 CPU 대비 60배 높은 경이로운 에너지 효율성을 제공합니다.
Tesla P40은 뛰어난 사용자 환경을 위해 47TOPS(Tera Operations Per Second) 추론 성능, INT8 정밀도 및 24GB 온보드 메모리를 제공합니다.
Volta 기반 Tesla V100 GPU를 사용하면 데이터센터가 딥 러닝 워크로드 처리량을 현저히 높일 수 있으며, 오늘날의 데이터 홍수 속에서 인텔리전스를 추출할 수 있습니다. 딥 러닝 워크로드 처리에서, 단 한 개의 Tesla V100을 탑재한 서버 한 대가 CPU로만 구성된 서버를 최대 50대까지 대체할 수 있어 처리량을 대폭 높이는 동시에 취득 비용을 절감할 수 있습니다.
초고효율 Tesla P4 GPU로 소형 폼 팩터의 50/75W 전원형 설계가 적용된 밀도 최적화 스케일아웃 서버의 속도를 한층 끌어올릴 수 있습니다. 딥 러닝 추론 작업 시 CPU 대비 52배 높은 경이로운 에너지 효율성을 제공합니다. 이를 통해 하이퍼스케일 고객에게 기존 인프라를 포함하여 이루어지는 서버 확장을 지원하며, AI 기반 애플리케이션에 대한 폭발적인 수요 증가에 대응할 수 있습니다.
Tesla P4 GPU는 실시간으로 최대 39개의 HD 비디오 스트림을 분석할 수 있습니다. 전용 하드웨어 가속 디코드 엔진으로 구동되므로 추론을 수행하는 NVIDIA CUDA® 코어와 병렬로 작동합니다. 딥 러닝을 동영상 파이프라인에 통합함으로써, 고객은 새로운 차원의 스마트하고 혁신적인 동영상 서비스를 사용자들에게 제공하여 동영상 검색과 다른 동영상 관련 서비스를 원활하게 제공할 수 있습니다.
NVIDIA TensorRT™ 는 딥 러닝 애플리케이션의 프로덕션 배포를 위해 개발된 고성능 뉴럴 네트워크 추론 엔진입니다. 프로덕션 배포용 딥 러닝 모델을 간소화하기 위한 라이브러리를 갖추고 있으며, 보통 32비트 또는 16비트 데이터의 트레이닝된 뉴럴 네트워크를 최적화해 정밀도를 낮춘 Tesla P4의 INT8 또는 Tesla V100의 FP16 연산을 지원합니다. NVIDIA DeepStream SDK 는 Tesla GPU의 성능을 조절해 디코드와 동영상 스트림 분석이 동시에 이루어지도록 합니다.
iFLYTEK의 Voice Cloud Platform에서는 트레이닝 및 추론을 위해 NVIDIA Tesla P4 및 P40 GPU를 사용하여 음성 인식 정확도를 높입니다.
NVIDIA Inception 프로그램 스타트업 회사인 Valossa에서는 NVIDIA GPU를 사용하여 비디오 데이터에서 시청자 행동을 예측하고 딥 러닝을 가속화합니다.
JD에서는 NVIDIA AI 추론 플랫폼을 사용하여 비디오 감지 효율성을 40배 향상합니다.
지금 딥 러닝 추론용 Tesla V100, P4 및 P40을 구매하실 수 있습니다.