NVIDIA GPU 클라우드

누구나 어디서든 딥 러닝 사용 가능

NVIDIA GPU 클라우드 및 Amazon EC2 시작하기

NGC(NVIDIA GPU 클라우드)는 GPU 가속 클라우드 플랫폼입니다. 이 플랫폼으로 온 프레미스 또는 Amazon EC2(Amazon Elastic Compute Cloud)에서 최고의 딥 러닝 프레임워크를 빠르고 쉽게 시작할 수 있으며, 다른 클라우드 서비스 제공업체도 곧 지원할 예정입니다.

Watch Video >
몇 주 단위가 아닌 몇 분 안에 이루어지는 혁신

몇 주 단위가 아닌 몇 분 안에 이루어지는 혁신

사전 통합되고 성능이 최적화되고 컨테이너화된 딥 러닝 프레임워크입니다.

플랫폼 전반에 걸친 딥 러닝

플랫폼 전반에 걸친 딥 러닝

최신 NVIDIA GPU에서의 작업—데스크톱에서, 데이터센터에서, 그리고 AWS 사용 클라우드에서 가능하며, 다른 클라우드 서비스 제공업체도 곧 지원할 예정입니다.

언제나 최신 상태 유지

언제나
최신 상태 유지

매달 제공되는 업데이트로 라이브러리, 드라이버, 컨테이너를 지속적으로 최적화하십시오.

NVIDIA GPU 클라우드를 사용해야 하는 세 가지 이유

  1. 모든 산업에 일으킬 혁신

    데이터 과학자와 연구자는 NVIDIA GPU 클라우드에서 제공되는 세계에서 가장 빠른 GPU 아키텍처와 최적화된 딥 러닝 프레임워크 컨테이너를 통해 NVIDIA AI의 강력한 성능을 빠르게 활용할 수 있습니다. NVIDIA AI는 인간이 직면한 가장 복잡한 일부 문제를 해결할 수 있습니다. 전염성 질환을 조기에 발견하고 그 치료법을 찾고 교통사고 사망률을 낮추고 중요한 인프라에서 불완전한 요소를 찾아내고 대규모의 데이터에서 심층 비즈니스 정보를 제공하는 등 다양한 역할을 맡을 수 있습니다. NVIDIA AI가 자동차, 의료 분야에서 핀테크에 이르기까지 모든 산업 분야를 바꾸고 있습니다.
  2. DIY에서 벗어날 시간

    NVIDIA GPU 클라우드는 AI 연구자들에게 TensorFrlow, PyTorch, MXNet 등의 딥 러닝 프레임워크를 탑재한 퍼포먼스 엔지니어드 컨테이너라는 강력한 기능을 제공합니다. NVIDIA는 CUDA 런타임, NVIDIA 라이브러리와 같은 모든 필수 종속성을 포함하는 이러한 사전 통합된 GPU 가속 프레임워크가 Amazon EC2 P3 인스턴스(NVIDIA Volta 포함), NVIDIA DGX-1™, NVIDIA DGX Station™에서 실행되도록 조정, 테스트, 인증 과정을 마쳤습니다. 그래서 시간이 많이 소요되며 직접 하기 어려운 소프트웨어 통합을 할 필요가 없으며, 사용자가 예전에는 불가능하다고 여기던 문제를 AI를 통해 해결할 수 있도록 지원합니다.
  3. 어디서든 액세스

    NGC의 최적화된 딥 러닝 프레임워크 컨테이너 카탈로그는 참여 중인 클라우드 서비스 제공업체와 NVIDIA DGX™시스템에서 사용 가능하도록 모두에게 무료로 제공됩니다. 컨테이너화된 소프트웨어는 딥 러닝 작업을 여러 환경으로 이동할 수 있으므로 AI 워크로드를 확장하는 데 일반적으로 필요한 오버로드가 줄어듭니다. NVIDIA DGX Station을 실험 중인 개발자와 데이터 과학자, 데이터센터에서 NVIDIA DGX-1을 사용하는 엔터프라이즈 또는 클라우드에서 NVIDIA GPU를 사용하는 조직은 이제 일관적이며 최적화된 도구들에 액세스할 수 있습니다. 연구자들은 NGC를 통해 IT에 드는 시간을 줄이고 더 많은 시간을 딥 러닝을 이용한 실험, 통찰력 확보, 결과 도출에 투자할 수 있습니다.

진정한 의미에서 확장 가능한 딥 러닝

NVIDIA GPU 클라우드

NGC는 딥 러닝 프로젝트에서 늘어나는 요구에 필요한 성능과 유연성을 제공하며, NGC로 모든 산업에서 NVIDIA AI 성능을 바로 이용할 수 있습니다. 이제 과학자와 연구원들이 신경망 모델을 신속하게 구축, 교육 및 배포하여 가장 복잡한 인공 지능(AI) 과제를 해결할 수 있습니다. NGC는 클라우드나 온 프레미스에서 NVIDIA GPU를 활용하는 완전하게 통합되고 최적화된 딥 러닝 프레임워크 컨테이너의 카탈로그를 관리합니다.

자주 묻는 질문

  • NGC에 등록하면 어떤 혜택을 받을 수 있습니까?

    완전하게 통합되고 최적화된 딥 러닝 프레임워크의 종합 카탈로그에 무료로 액세스할 수 있습니다. 

  • NGC의 컨테이너에는 누가 액세스할 수 있습니까?

    컨테이너는 NGC에서 계정 등록을 한 모든 사람에게 제공됩니다. 계정을 계속 유지하면 GPU 최적화 컨테이너의 최신 버전을 다운로드해서 사용할 수 있습니다.

  • 컨테이너란 무엇입니까?

    각 컨테이너에는 Linux OS, CUDA 드라이버, 필수 라이브러리, 선택된 프레임워크(NVCaffe, TensorFlow 등)를 비롯한 NVIDIA GPU의 딥 러닝에 최적화된 소프트웨어 스택이 사전 통합되어 있습니다. 이러한 소프트웨어는 모두 추가적인 설정 작업 없이 바로 연동해서 사용할 수 있도록 조정되었습니다.

  • NGC에서는 어떤 프레임워크를 사용할 수 있습니까?

    NGC 컨테이너 레지스트리에는 가장 인기 있는 프레임워크(NVCaffe, Caffe2, Microsoft Cognitive Toolkit(CNTK), Digits, MXNet, PyTorch, TensorFlow, Theano, Torch, CUDA(개발자용 기본 수준 컨테이너))의 NVIDIA GPU 가속 버전이 있습니다.

  • 컨테이너는 어디에서 실행할 수 있습니까?

    NVIDIA는 GPU 가속 컨테이너가 Amazon Web Services P3 Volta 인스턴스와 NVIDIA DGX 시스템에서 실행되도록 조정, 테스트, 인증 과정을 마쳤습니다. Microsoft Azure 등의 다른 클라우드 서비스 제공업체도 곧 지원할 예정입니다. 또한 NVIDIA DGX 시스템을 사용하고 있는 조직이라면 이제 NGC와 함께 보다 일관적이고 최적화된 도구들에 엑세스할 수 있습니다.

  • AWS에서 이러한 컨테이너를 실행하려면 어떻게 해야 합니까?

    NVIDIA는 NVIDIA Volta™ 딥 러닝 AMI라 불리는 무료 AMI(Amazon Machine Image)를 제작하였으며 이는 AWS 마켓플레이스에서 제공됩니다. 이 AMI는 NGC 컨테이너 레지스트리에서 사용 가능한 딥 러닝 프레임워크를 실행하는 데 최적화된 환경입니다. AMI 인스턴스를 만들고 NGC에서 원하는 프레임워크를 인스턴스로 끌어오면 즉시 딥 러닝 작업을 실행하기 시작할 수 있습니다. AWS 마켓플레이스에 다른 딥 러닝용 AMI들도 있는데 해당 AMI들은 NVIDIA가 테스트하거나 최적화하지 않았습니다.

  • 컨테이너와 프레임워크는 얼마나 자주 업데이트됩니까?

    매월 업데이트됩니다. NGC의 컨테이너는 NVIDIA의 지속적인 R&D 투자와 프레임워크 엔지니어들과의 공동 엔지니어링으로부터 혜택을 받아 각 딥 러닝 프레임워크를 가능한 가장 빠르게 교육받을 수 있도록 조정했는지 확인합니다. NVIDIA 엔지니어는 고객의 딥 러닝 투자가 시간이 지날수록 점점 더 많은 수익을 낼 수 있도록 보장하기 위해 매월 컨테이너 업데이트를 제공함으로써 이 소프트웨어를 지속적으로 최적화합니다.

  • NVIDIA는 이러한 컨테이너에 어떤 종류의 지원을 제공합니까?

    모든 NGC 사용자에게는 NVIDIA DevTalk 개발자 포럼에 대한 액세스 권한이 부여됩니다 https://devtalk.nvidia.com/. NVIDIA DevTalk 개발자 포럼은 NVIDIA 고객, 파트너, 직원 생태계에서 참여하는 딥 러닝 및 GPU 전문가로 구성된 대규모 커뮤니티가 지원합니다.

  • NVIDIA가 이러한 컨테이너를 제공하는 이유는 무엇입니까?

    NVIDIA는 딥 러닝 연구원과 개발자에게 GPU 가속 딥 러닝 프레임워크에 대한 간소화된 액세스를 제공함으로써 AI의 대중화를 보편화하여 이렇게 최적화된 프레임워크를 Volta 지원 클라우드 제공업체나 최신 NVIDIA GPU가 탑재된 로컬 시스템에서 손쉽게 실행할 수 있게 도우려는 것입니다.

  • 컨테이너가 무료라면 컴퓨팅 시간에 대해서는 요금을 내야 합니까?

    NGC 컨테이너 레지스트리의 컨테이너는 무료로 사용할 수 있습니다(TOU약관 적용[링크]). 하지만 각 클라우드 서비스 제공업체는 가속 컴퓨팅 서비스에 대해 각자 자체적인 과금 정책을 갖추고 있습니다.

NGC 딥 러닝 프레임워크 개요 다운로드

NGC 딥 러닝 프레임워크 개요 다운로드

이 개요를 통해 최고 딥 러닝 프레임워크의 최적화에 대해 자세히 알아보십시오. TensorFlow, PyTorch, MXnet, Theano, Caffe2, Microsoft CNTK(Cognitive Toolkit) 등의 모든 주요 프레임워크와 NGC를 시작하십시오.

NGC를 통해 퍼포먼스 엔지니어드 딥 러닝 프레임워크에 액세스하십시오.