GPU 클라우드
컴퓨팅

모든 클라우드 서비스 제공자에서 사용하는 AI

딥 러닝의 성능을 데이터에 도입

클라우드 컴퓨팅은 데이터센터를 누구나 사용할 수 있도록 하고 비즈니스가 운영되는 방식을 완전히 탈바꿈시켜 산업에 일대 변혁을 일으켰습니다. 이제 가장 중요한 자산은 선호하는 공급업체의 클라우드에 있습니다. 그러나 그러한 데이터에서 완전하게 통찰을 끌어내려면 적합한 고성능 컴퓨팅 솔루션이 필요합니다.

NVIDIA GPU Cloud

GPU 가속 클라우드 컨테이너

NGC(NVIDIA GPU Cloud) AI 과학자와 연구자에게 GPU 가속 컨테이너를 제공합니다. NGC는 TensorFlow, PyTorch, MXNet과 같은 컨테이너화된 딥 러닝 프레임워크를 특징으로 하며, 참여 중인 클라우드 서비스 제공업체의 최신 NVIDIA GPU에서 실행될 수 있도록 NVIDIA에 의해 조정, 테스트 및 인증되었습니다. 또한, NGC에는 HPC 애플리케이션을 위한 제3자 관리 컨테이너와 HPC 시각화를 위한 NVIDIA 컨테이너도 포함되어 있습니다.

GPU 클라우드 컴퓨팅은 모든 주요 클라우드 플랫폼에서 주문형으로도 사용이 가능합니다.

클라우드에서 GPU 컴퓨팅의 필요성

클라우드에서 GPU 컴퓨팅의 필요성

거래 기록, 센서 로그, 이미지, 동영상 등에 의해 매일 폭발적으로 생성되는 데이터를 처리해야 합니다. 하지만 이런 작업의 절반은 GPU를 사용한 딥 러닝 애플리케이션을 위해 데이터를 클라우드에서 데이터센터로 옮기는 것입니다. GPU 가속 컴퓨팅을 클라우드에 적용함으로써 대규모 데이터 세트와 이러한 데이터에서 통찰을 얻기 위해 필요한 컴퓨팅 성능 간의 간극을 메꿉니다.

GPU 클라우드 컴퓨팅으로 비용 절감

GPU 클라우드 컴퓨팅으로 비용 절감

수백 개의 상용 CPU 인스턴스를 인스턴스당 8개의 GPU가 있는 강력한 노드로 교체하여 최대 70%까지 비용을 절감할 수 있습니다. 과학 및 딥 러닝 작업에는 전통적으로 막대한 사전 지출이 필요했습니다. 하지만 종량제 가격 정책, 상시 가동 및 확장 가능 성능을 통해 오늘 사용한 양만큼만 지불하고 향후 필요에 따라 확장할 수 있습니다.

이 모든 혜택이  NVIDIA® Tesla® 데이터센터 GPU에서 기대할 수 있는 예측 가능한 성능과 함께 제공됩니다. 데이터 무결성을 위한 오류 수정 코드(ECC) 메모리, 고대역폭을 위한 GPUDirect 원격 직접 메모리 액세스(RDMA), 그리고 GPU 간 저지연 P2P 통신 등과 같은 완전한 혜택 패키지가 제공됩니다.

자동 프로비저닝을 통해 작업 대기열 제거

자동 프로비저닝을 통해 작업 대기열 제거

사전 구성된  NVIDIA 드라이버  및 라이브러리가 포함된 가상 이미지를 사용하여 며칠 또는 몇 주가 아니라 몇 분 만에 GPU 가속 HPC 클러스터를 프로비저닝하십시오. 모든 컴퓨팅 요구 사항을 충족하고, 최대 용량을 단기적으로 늘리기 위해 버스팅을 사용하도록 설정하는 등, GPUI 클라우드 컴퓨팅은 필요한 확장성을 제공합니다.