NVIDIA Tesla T4 Tensor-Recheneinheit

Betrieb der TensorRT Hyperscale-Inferenzplattform

Die Inferenzbeschleunigung der nächsten Generation ist jetzt verfügbar

Wir rasen in eine Zukunft, in der jede Kundeninteraktion, jedes Produkt und jedes Dienstangebot mit KI in Berührung kommt und dadurch verbessert wird. Wir erkennen, dass für die Zukunft eine Rechenplattform erforderlich ist, die die vollständige Bandbreite moderner KI beschleunigen kann. Dadurch können in Unternehmen eine neue Kundenerfahrung geprägt und auf neue Weise Kundenanforderungen erfüllt – und sogar übertroffen – sowie KI-basierte Produkte und Dienstleistungen kosteneffizient skaliert werden.

Der NVIDIA® Tesla® T4-Grafikprozessor ist der weltweit fortschrittlichste Inferenzbeschleuniger. NVIDIA Tesla T4 wird mit NVIDIA Turing Tensor-Recheneinheiten betrieben und bietet revolutionäre Multipräzisions-Inferenzleistung zum Beschleunigen diverser Anwendungen der modernen KI. T4 ist in einen energieeffizienten 70-Watt PCIe-Small-Form-Faktor Design gepackt und für Scale-Out-Server optimiert sowie speziell für die Bereitstellung modernster Inferenz in Echtzeit konzipiert.

Bahnbrechende Inferenzleistung

Beim Tesla T4 wird die revolutionäre Technologie der Turing Tensor-Recheneinheiten mit Multipräzisions-Computing für KI-Inferenz eingeführt. T4 bietet bahnbrechende Leistung von FP32- über FP16- und INT8- bis hin zu INT4-Precision und liefert bis zu 40-mal mehr Leistung als CPUs.

Bahnbrechende Inferenzleistung

MODERNSTE INFERENZ IN ECHTZEIT

Reaktionsschnelligkeit ist der Schlüssel zur Benutzerinteraktion bei Diensten wie Gesprächs-KI, Empfehlungssysteme und visuelle Suche. Da die Modelle an Genauigkeit und Komplexität zunehmen, erfordert die Bereitstellung der richtigen Antwort in Echtzeit eine exponentiell größere Rechenleistung. Tesla T4 bietet einen bis zu 40-mal höheren Durchsatz bei niedriger Latenz, sodass mehr Anfragen in Echtzeit bearbeitet werden können.

T4-INFERENZLEISTUNG

Resnet50

DeepSpeech2

GNMT

Videotranskodierungsleistung

Mit dem exponentiell zunehmenden Volumen an Onlinevideos steigt auch die Nachfrage nach Lösungen zum effizienten Suchen und Erhalten von Einblicken in diesen Videos.Tesla T4 bietet überragende Leistung für KI-Videoanwendungen – mit dedizierten Engines für Hardwaretranskodierung. Diese bieten die doppelte Dekodierungsleistung im Vergleich zu Recheneinheiten vorheriger Generationen. T4 kann bis zu 38 Videostreams in Full HD dekodieren. Dadurch ist die Integration von skalierbarem Deep Learning in Videopipelines für innovative und intelligente Videodienste ganz einfach.

Technische Daten zu NVIDIA Tesla T4

 

Leistung

Turing Tensor-Recheneinheiten
320

NVIDIA CUDA®-Recheneinheiten
2.560

Single-Precision-Leistung (FP32)
8.1 TFLOPS

Mixed-Precision (FP16/FP32)
65 FP16 TFLOPS

INT8-Precision
130 INT8 TOPS

INT4-Precision
260 INT4 TOPS

 
 

Konnektivität

3. Gen.
x 16 PCIe

 
 

Arbeitsspei

Kapazität
16 GB GDDR6

Bandbreite über
320+ GB/s

 
 

Stromversorgung

70 Watt

 

NVIDIA KI-Inferenzplattform

Entdecken Sie die fortschrittlichste Inferenzplattform der Welt.