Rejestr kontenerów NGC zapewnia dostęp do kompleksowego katalogu akcelerowanych na GPU kontenerów z dziedziny SI, które zostały zoptymalizowane, przetestowane i dostrojone pod kątem uruchamiania na wspieranych jednostkach GPU NVIDIA u klienta lub w chmurze. Kontenery z zakresu SI serwisu NGC, włącznie z TensorFlow, PyTorch, MXNet, NVIDIA TensorRT™ i nie tylko, zapewniają użytkownikom wydajność i elastyczność w podejmowaniu najbardziej wymagających projektów dzięki potędze SI NVIDIA.. Pomaga to analitykom danych i badaczom szybko tworzyć, szkolić i wdrażać modele SI, aby sprostać stale zmieniającym się wymaganiom.
Rejestr kontenerów NGC składa się z czołowego oprogramowania z dziedziny akcelerowanej analizy danych, maszynowego uczenia i analityki. Skorzystaj z potężnego oprogramowania na potrzeby uruchamiania kompleksowego potoku szkolenia z zakresu analityki danych w całości na układach GPU, skracając czas szkolenia z dni do minut.
Zapoznaj się z tą broszurą i dowiedz się więcej na temat optymalizacji dotyczących czołowych platform głębokiego uczenia, jak TensorFlow, PyTorch, MXnet, Theano, Caffe2, Microsoft Cognitive Toolkit (CNTK) i nie tylko.
NVIDIA GPU Cloud ułatwia korzystanie ze zoptymalizowanych pod kątem układów GPU platform głębokiego uczenia zarówno u klienta, jak i w chmurze. Zobacz, jak szybko rozpocząć pracę z NGC i Amazon Elastic Compute Cloud (Amazon EC2).
Zyskujesz całkowicie bezpłatny dostęp do wszechstronnego katalogu w pełni zintegrowanych i zoptymalizowanych kontenerów dla platform głębokiego uczenia.
Każdy, kto zarejestruje się tworząc konto w serwisie NGC. Utrzymując konto, użytkownicy mogą pobierać najnowsze wersje zoptymalizowanych pod kątem układów GPU kontenerów i korzystać z nich na obsługiwanych platformach.
Każdy kontener zawiera zestaw NVIDIA GPU Cloud Software Stack – wstępnie zintegrowany zestaw akcelerowanego na GPU oprogramowania zoptymalizowanego pod kątem głębokiego uczenia na układach GPU NVIDIA. Obejmuje on system operacyjny Linux, bibliotekę uruchomieniową CUDA i inne wymagane biblioteki oraz wybraną platformę lub aplikację (NVCaffe, TensorFlow, NVIDIA DIGITS itp.) – wszystko to dostosowane do rozpoczęcia natychmiastowej pracy bez konieczności dodatkowej konfiguracji.
Rejestr kontenerów NGC oferuje akcelerowane na układach GPU NVIDIA wersje najpopularniejszych platform programistycznych: NVCaffe, Caffe2, Microsoft Cognitive Toolkit (CNTK), NVIDIA DIGITS, MXNet, PyTorch, TensorFlow, Theano, Torch, CUDA (podstawowy kontener dla twórców oprogramowania).
Kontenery akcelerowane na układach GPU zostały dopasowane, przetestowane i certyfikowane przez NVIDIA pod kątem pracy z systemami NVIDIA DGX™, kartami NVIDIA TITAN (opartymi na architekturze NVIDIA Volta i NVIDIA Pascal™) oraz NVIDIA Quadro GV100, GP100 i P6000, a także układami GPU NVIDIA w rozwiązaniach chmurowych firm Alibaba, Amazon, Google, Microsoft i Oracle.
Tak, warunki użytkowania pozwalają na wykorzystanie kontenerów głębokiego uczenia serwisu NGC na stacjonarnych komputerach PC wyposażonych w jednostki GPU oparte na architekturze Volta lub Pascal.
Kontenery głębokiego uczenia serwisu NGC przeznaczone są do uruchamiania z wykorzystaniem jednostek GPU NVIDIA opartych na architekturze Volta lub Pascal™. Dostawcy usług w chmurze wspierani przez serwis NGC oferują typy wystąpień, które zapewniają możliwość uruchamiania kontenerów NGC na odpowiednich układach GPU NVIDIA. W celu uruchomienia kontenerów potrzebny będzie wybór jednego z typów wystąpień, utworzenie na nim odpowiedniego pliku obrazu i uruchomienie dostępu do serwisu NGC w ramach tego obrazu. Kroki prowadzące do tego różnią się w zależności od dostawcy usług w chmurze, jednakże szczegółowe instrukcje dla każdego z dostawców usług znajdują się dokumentacji serwisu NVIDIA GPU Cloud.
Co miesiąc. Kontenery z dziedziny głębokiego uczenia w rejestrze NGC zyskują dzięki ciągłym inwestycjom w badania i rozwój firmy NVIDIA oraz wspólnym pracom projektowym z inżynierami odpowiedzialnymi za platformy, co zapewnia, że każda platforma głębokiego uczenia jest zoptymalizowana pod kątem jak najszybszego procesu szkolenia. Inżynierowie z firmy NVIDIA stale optymalizują oprogramowanie oferując comiesięczne aktualizacje kontenerów, aby zapewnić, że Twoja inwestycja w głębokie uczenie będzie przynosiła na przestrzeni czasu coraz większe zyski.
Użytkownicy zyskują dostęp do forum dla twórców oprogramowania NVIDIA DevTalk https://devtalk.nvidia.com, wspieranego przez ogromną społeczność ekspertów z dziedziny głębokiego uczenia i układów GPU, którzy są częścią ekosystemu klientów, partnerów i pracowników firmy NVIDIA.
Firma NVIDIA akceleruje proces demokratyzacji sztucznej inteligencji poprzez udostępnienie naukowcom i programistom z dziedziny głębokiego uczenia ułatwionego dostępu do akcelerowanych na GPU platform głębokiego uczenia. Dzięki temu mogą w prosty sposób uruchamiać te zoptymalizowane platformy na układach GPU NVIDIA w chmurze lub lokalnych systemach.
Za korzystanie z kontenerów z rejestru kontenerów NGC nie są pobierane żadne opłaty (zgodnie z zapisami warunków użytkowania). Jednakże każdy z dostawców usług w chmurze ma własny cennik dotyczący usług akcelerowanych obliczeń.
Prosimy o odwiedzenie strony https://ngc.nvidia.com/legal/terms