NVIDIA TESLA V100-GPU MIT TENSOR-RECHENEINHEITEN

Der erste Grafikprozessor mit Tensor Core

Willkommen im KI-Zeitalter

Wenn sich aus den Unmengen an verfügbaren Daten die richtigen Erkenntnisse gewinnen lassen, kann das der Anstoß zur Transformation ganzer Branchen sein. Von personalisierter Krebstherapie über Personal Assistants, die ganz natürlich sprechen, bis hin zur Vorhersage des nächsten großen Hurrikans. 

Der NVIDIA® Tesla® V100 mit Tensor-Recheneinheiten der fortschrittlichste Grafikprozessor für Rechenzentren, der je entwickelt wurde, und beschleunigt KI-, HPC-, datenwissenschaft und Grafikanwendungen. Seine Leistung verdankt er der NVIDIA Volta-Architektur. Er ist in zwei Konfigurationen (16 und 32GB) verfügbar und bietet als nur ein Grafikprozessor die Leistung von 100 CPUs. Dadurch steht Datenwissenschaftlern, Forschern und Ingenieuren die nötige Leistung zur Verfügung, um sich Herausforderungen zu stellen, die bislang als unüberwindbar galten.

Führen Sie KI- und HPC-Workloads in einer virtuellen Umgebung aus, um die Sicherheit und Verwaltbarkeit mithilfe der NVIDIA Virtual Compute Server(vCS)-Software zu verbessern. 

AI Training

KI-Training

Spracherkennung. Virtuelle persönliche Assistenten mit dem Ziel natürlicher Kommunikation trainieren. Fahrbahnspuren erkennen, sodass Autos selbständig fahren können. Dies sind nur wenige Beispiele für die immer komplexeren Herausforderungen, denen sich Datenwissenschaftler mithilfe von KI stellen. Um derartige Probleme zu lösen, müssen deutlich komplexere Deep-Learning-Modelle in einem angemessenen Zeitraum trainiert werden.

Mit 43.000 Tensor-Recheneinheiten ist der Tesla V100 der weltweit erste Grafikprozessor, der bei der Deep-Learning-Leistung die 100-TOPS-Schallmauer durchbricht. NVIDIA NVLink™ der zweiten Generation verbindet mehrere Tesla V100-Grafikprozessoren mit Übertragungsgeschwindigkeiten bis zu 160 GB/s. So entstehen die weltweit leistungsstärksten Computing-Server. KI-Modelle, die die Rechenressourcen früherer Systeme mehrere Wochen lang beanspruchen würden, lassen sich nun innerhalb weniger Tage trainieren. Dank der erheblich kürzeren Trainingszeiten bietet sich KI nun als Lösung für deutlich mehr Probleme an.

AI Inference

KI-Inferenz

Um uns Zugriff auf die relevantesten Informationen, Services und Produkte zu bieten, haben Hyperscale-Unternehmen damit begonnen, KI einzusetzen. Doch es ist nicht einfach, den Anforderungen der Nutzer jederzeit gerecht zu werden. Die größten Hyperscale-Unternehmen der Welt müssten beispielsweise laut eigener Schätzungen die Kapazität ihrer Rechenzentren verdoppeln, wenn jeder Nutzer nur drei Minuten pro Tag seinen Spracherkennungsdienst nutzen würde.

Der Tesla V100 für Hyperscale ist auf maximale Leistung in bestehenden Hyperscale-Serverracks ausgelegt. Dank KI-Leistung bietet ein 13-kW-Serverrack mit Tesla V100-Grafikprozessoren die gleiche Leistung für Deep-Learning-Inferenz wie 30 CPU-Serverracks. Dieser gewaltige Fortschritt bei Durchsatz und Effizienz bedeutet, dass die Ausweitung von KI-Services sinnvoll ist.

High Performance Computing

High Performance Computing (HPC)

HPC ist eine der Säulen der modernen Wissenschaft. Von der Wettervorhersage über die Medikamentenentwicklung bis hin zur Entdeckung neuer Energiequellen – Forscher in vielen Bereichen setzen riesige Computersysteme für Simulationen und Prognosen ein. KI erweitert die Möglichkeiten des traditionellen HPC. Denn Forscher sind damit in der Lage, gewaltige Datenmengen zu analysieren und wertvolle Informationen daraus zu gewinnen, während anhand von Simulationen alleine keine vollständigen Prognosen realer Entwicklungen möglich sind.

Der Tesla V100 ist auf die Konvergenz von HPC und KI ausgelegt. Er bietet sich als Plattform für HPC-Systeme an, die in der Computerwissenschaft für wissenschaftliche Simulationen und in der Datenwissenschaft zum Identifizieren wertvoller Informationen in Daten eingesetzt werden. Durch die Kombination von CUDA- und Tensor-Recheneinheiten innerhalb einer einheitlichen Architektur kann ein einzelner Server mit Tesla V100-Grafikprozessoren bei herkömmlichen HPC- und bei KI-Workloads Hunderte standardmäßige reine CPU-Server ersetzen. Nun kann sich jeder Forschungsmitarbeiter und Techniker einen KI-Supercomputer leisten, der ihn bei den größten Herausforderungen unterstützt.

GRAFIKPROZESSOREN FÜR RECHENZENTREN

data-center-tesla-v100-nvlink-625-ud@2x

NVIDIA TESLA V100 FÜR NVLINK

Ultimative Leistung für Deep Learning

data-center-tesla-v100-pcie-625-ud@2x

NVIDIA TESLA V100 FÜR PCle

Optimale Vielseitigkeit bei allen Workloads, auf HPC ausgelegt

NVIDIA Tesla V100 Spezifikationen

 

Tesla V100 für NVLink

Tesla V100 für PCIe

Tesla V100s für PCIe

LEISTUNG
with NVIDIA GPU Boost

DOPPELTE GENAUIGKEIT
7.8 TeraFLOPS

EINFACHE GENAUIGKEIT
15.7 TeraFLOPS

Deep Learning
125 TeraFLOPS

DOPPELTE GENAUIGKEIT
7 TeraFLOPS

EINFACHE GENAUIGKEIT
14 TeraFLOPS

Deep Learning
112 TeraFLOPS

DOPPELTE GENAUIGKEIT
8.2 TeraFLOPS

EINFACHE GENAUIGKEIT
16.4 TeraFLOPS

Deep Learning
130 TeraFLOPS

VERBINDUNGSBANDBREITE
Bidirektional

NVLink
300 GB/s

PCIe
32 GB/s

PCIe
32 GB/s

SPEICHER
CoWoS-HBM2-Stapelspeicher

KAPAZITÄT
32/16 GB HBM2

BANDBREITE
900 GB/s

KAPAZITÄT
32 GB HBM2

BANDBREITE
1134 GB/s

LEISTUNG
Max. Verbrauch


300 WATT


250 WATT

JETZT KOSTENLOS TESTEN

Die schnellste Grafikkarte der Welt für HPC und Deep Learning.

BEZUGSQUELLEN

Finden Sie über das NVIDIA-Partnernetz (NPN) einen NVIDIA-Partner für beschleunigtes Computing.