KI(KÜNSTLICHE INTELLIGENZ)-CONTAINER

UMGEHEND EINSETZBARE DEEP-LEARNING-SOFTWARE

Die NGC-Containerregistrierung bietet einen umfangreichen Katalog der GPU-beschleunigten KI-Containern, die optimiert, getestet und auf NVIDIA-Grafikprozessoren lokal und in der Cloud umgehend einsetzbar sind. KI-Container auf NGC, einschließlich TensorFlow, PyTorch, MXNet, NVIDIA TensorRT™ und mehr bieten Nutzern die Leistung und Flexibilität, die anspruchsvollsten Projekte mit der Leistung von NVIDIA KI anzugehen. Das hilft Datenwissenschaftlern und Forschern KI-Modelle schnell zu bauen, zu trainieren und zu implementieren, um die sich ständig weiterentwickelnden.

Truly Scalable Deep Learning

BESCHLEUNIGTES MASCHINELLES LERNEN UND ANALYSEN

Die NGC-Containerregistrierung verfügt über Topsoftware für beschleunigte Datenwissenschaft, maschinelles Lernen und Analysen. Nutzen Sie eine leistungsstarke Software zur vollständigen Ausführung durchgehender Datenwissenschafts-Lernpipelines in der GPU, wodurch die Lernzeit von Tagen auf Minuten schrumpft.

DREI GRÜNDE FÜR DIE NVIDIA GPU CLOUD LÖSUNG

  1. AUF LEISTUNG AUSGELEGTE DEEP-LEARNING-CONTAINER

    NGC-KI-Container  bieten rekordbrechende Leistung , was auch durch KI-Benchmarks wie  MLPerf,   die Branchenstandard sind, belegt wird. Diese Ergebnisse  zeugen von jahrelanger, unaufhörlicher Innovationen bei Architektur, Systemen und vollständig abgestimmter Zusatzsoftware. Nutzer profitieren von der gleichen optimierten Zusatzsoftware, die für diese Benchmarks lokal und in der Cloud mit NGC -Containern verwendet wird. NVIDIA-Techniker arbeiten jeden Monat mit der Open-Source-Gemeinschaft und leisten mit Optimierungen einen Beitrag zu einer Vielzahl von KI-Projekten und stellen diese Optimierungen über Updates den NGC-KI-Containern zur Verfügung.
  2. ZUGRIFF VON JEDEM ORT

    Der Katalog der von NVIDIA optimierten Container für Deep-Learning-Software steht allen unentgeltlich auf allen Plattformen zur Verfügung – vom Desktop über das Rechenzentrum bis hin zur Cloud. Die Frameworks lassen sich auf Systemen teilnehmender Anbieter von Cloud-Diensten, auf NVIDIA DGX™-Systemen und Systemen mit ausgewählten NVIDIA-Desktop-Grafikprozessoren einsetzen. Die Containerisierung von Software ermöglicht das Portieren von Deep-Learning-Aufträgen über verschiedene Umgebungen hinweg. So fallen geringere Gesamtkosten für die Skalierung von KI-Workloads an. Entwickler und Datenwissenschaftler, die für ihre Experimente NVIDIA DGX Station oder einen PC mit einem TITAN-Grafikprozessor mit der NVIDIA Volta- oder NVIDIA Pascal-Architektur nutzen, Unternehmen mit einer NVIDIA DGX-1 im Rechenzentrum und Organisationen, die NVIDIA-Grafikprozessoren in der Cloud einsetzen, haben nun Zugriff auf ein einheitliches, optimiertes Portfolio an Tools. Dadurch verringert sich für Nutzer der Zeitaufwand für IT-Probleme, wodurch ihnen mehr Zeit für ihre Experimente bleibt, in denen sie dank Deep Learning zu wichtigen Erkenntnissen und Ergebnissen gelangen.
  3. INNOVATION FÜR JEDE BRANCHE

    Datenwissenschaftler und Forscher können sich die Leistung von NVIDIA-KI dank der weltweit schnellsten Grafikprozessorarchitektur und dank Deep-Learning-Software in optimierten Containern in kürzester Zeit zunutze machen. Dieses leistungsstarke Tool trägt zur Lösung einiger der komplexesten Probleme der Menschheit bei. Ansteckende Krankheiten können frühzeitig erkannt und geheilt werden. Mängel in kritischer Infrastruktur werden aufgedeckt. Aus großen Datenmengen lassen sich geschäftliche Informationen mit hoher Aussagekraft gewinnen. Sogar tödliche Verkehrsunfälle können verhindert werden. Jede Branche, von der Automobilindustrie über Medizin und Gesundheitswesen bis hin zur Finanztechnologie, wird derzeit von NVIDIA-KI transformiert.
Download the NGC Deep Learning Frameworks Brief

ÜBERSICHT ZUR DEEP-LEARNING-SOFTWARE IN NGC HERUNTERLADEN

In dieser Übersicht erfahren Sie mehr über die Optimierungen der wichtigsten Deep-Learning-Frameworks wie TensorFlow, PyTorch, MXnet, Theano, Caffe2, Microsoft Cognitive Toolkit (CNTK) und viele mehr.

IHR EINSTIEG IN DIE NVIDIA GPU CLOUD UND AMAZON EC2

Mit NVIDIA GPU Cloud lassen sich grafikprozessoroptimierte Deep-Learning-Frameworks vor Ort oder in der Cloud nutzen. Erfahren Sie, wie auch Sie schon bald NGC mit Amazon Elastic Compute Cloud (Amazon EC2) nutzen können.

Video ansehen >
 

HÄUFIG GESTELLTE FRAGEN

  • Welche Vorteile bietet die Registrierung für NGC?

    Sie haben damit kostenlos Zugriff auf einen umfassenden Katalog vollständig integrierter und optimierter Container für Deep-Learning-Frameworks. 

  • Wer hat alles Zugriff auf die NGC-Container?

    Jeder, der sich für ein NGC-Konto registriert. Nutzer mit einem Konto können die neuesten Versionen der grafikprozessoroptimierten Container auf unterstützte Plattformen herunterladen und dort verwenden.

  • Was befindet sich in den Containern?

    Jeder Container verfügt über die NVIDIA GPU Cloud-Software, eine vorab integrierte Grafikprozessor-beschleunigte Software, die für Deep Learning auf NVIDIA-Grafikprozessoren optimiert ist. Sie umfasst ein Linux-Betriebssystem, die CUDA-Runtime, die erforderlichen Bibliotheken sowie das ausgewählte Framework bzw. die ausgewählte Anwendung (z. B. TensorFlow, NVCaffe oder NVIDIA DIGITS). Diese Komponenten sind optimal aufeinander abgestimmt. Zusätzliche Einrichtungsschritte sind daher nicht erforderlich.

  • Welche Frameworks stehen auf NGC zur Verfügung?

    Die NGC-Container-Registry verfügt über von NVIDIA-Grafikprozessoren beschleunigte Versionen der beliebtesten Frameworks: NVCaffe, Caffe2, Microsoft Cognitive Toolkit (CNTK), NVIDIA DIGITS, MXNet, PyTorch, TensorFlow, Theano, Torch, CUDA (Basiscontainer für Entwickler).

  • Wo lassen sich die Container ausführen?

    Die Grafikprozessor-beschleunigten Container werden von NVIDIA optimiert, getestet und zertifiziert für die Verwendung auf NVIDIA DGX™-Systemen, NVIDIA TITAN (auf Basis von NVIDIA Volta und NVIDIA Pascal™), NVIDIA Quadro GV100, GP100 und P6000 sowie NVIDIA-Grafikprozessoren in der Cloud (Alibaba, Amazon, Google, Microsoft und Oracle).

  • Kann ich Deep-Learning-Container in NGC auf einem PC mit einer GeForce® GTX 1080 Ti ausführen?

    Ja, gemäß den Nutzungsbedingungen ist es zulässig, die NGC-Container für Deep Learning auf Desktop-PCs zu nutzen, auf denen Grafikprozessoren mit Pascal- oder Volta-Architektur ausgeführt werden.

  • Wie kann ich die Deep-Learning-Container in NGC bei einem Anbieter von Cloud-Diensten (z. B. Amazon oder Google Cloud) ausführen?

    Die Deep-Learning-Container in NGC sind für die Ausführung auf NVIDIA Volta- oder Pascal™-basierten Grafikprozessoren vorgesehen. Die von NGC unterstützten Anbieter von Cloud-Diensten (Cloud Service Providers, kurz CSP) bieten Instanztypen an, die die entsprechenden NVIDIA-Grafikprozessoren für die Ausführung der NGC-Container bereitstellen. Zum Ausführen der Container müssen Sie einen dieser Instanztypen auswählen, eine Instanz der entsprechenden Image-Datei darauf erstellen und dann aus diesem Image heraus auf NGC zugreifen. Die genauen Schritte hierfür variieren je nach CSP. In der NVIDIA GPU Cloud-Dokumentation finden Sie für jeden CSP ausführliche Anweisungen.

  • Wie häufig werden die Container und Frameworks aktualisiert?

    Jeden Monat. Die Deep-Learning-Container auf NGC profitieren von den laufenden NVIDIA-Investitionen in F&E sowie von unserer Zusammenarbeit mit Framework-Experten. So stellen wir sicher, dass jedes Deep-Learning-Framework ultraschnelles Training ermöglicht. NVIDIA-Techniker optimieren die Software kontinuierlich und stellen jeden Monat Updates für die Container bereit, sodass sich Ihre Investition in Deep Learning im Lauf der Zeit immer mehr bezahlt macht.

  • Welchen Support bietet NVIDIA für diese Container an?

    Die Nutzer haben Zugriff auf das NVIDIA DevTalk Developer Forumhttps://devtalk.nvidia.com. Zur großen Community dieses Forums gehören Deep-Learning- und Grafikprozessorexperten, die Kunden, Partner oder Mitarbeiter von NVIDIA sind.

  • Warum stellt NVIDIA diese Container bereit?

    NVIDIA beschleunigt die Demokratisierung von KI, indem wir Forschern und Entwicklern aus dem Deep-Learning-Bereich den Zugriff auf grafikprozessorbeschleunigte Deep-Learning-Frameworks erleichtern. Dadurch können Anwender diese optimierten Frameworks auf den neuesten NVIDIA-Grafikprozessoren in der Cloud oder auf lokalen Systemen einfach ausführen.

  • Die Deep-Learning-Container sind also kostenlos. Muss ich dafür für die Rechenzeit bezahlen?

    Die Container aus der NGC-Container-Registry werden kostenfrei zur Verfügung gestellt (gemäß den Nutzungsbedingungen). Jeder Cloud-Dienst-Anbieter hat jedoch sein eigenes Preismodell für beschleunigtes Computing.

MIT NGC ZUGRIFF AUF LEISTUNGSOPTIMIERTE DEEP-LEARNING-FRAMEWORKS SICHERN