Cœurs Tensor avec NVIDIA Volta

La nouvelle génération du Deep Learning

Les GPU NVIDIA® Tesla® sont accélérés par les cœurs Tensor, une nouvelle technologie révolutionnaire qui délivre des performances IA incomparables. Les cœurs Tensor peuvent accélérer les opérations matricielles à grande échelle, qui figurent au cœur des workflows IA, tout en exécutant des multiplications de matrices en précision mixte et des calculs accumulés en une seule opération. Plusieurs centaines de cœurs Tensor fonctionnent en parallèle au sein d’un seul GPU NVIDIA, ce qui offre une hausse significative du rendement et de l’efficacité énergétique.

NVIDIA T4 accéléré par les cœurs Turing Tensor

PERFORMANCES D’INFÉRENCE DE POINTE


NVIDIA T4 avec cœurs Turing Tensor

Tesla T4 s’appuie sur l’architecture NVIDIA Turing à cœurs Tensor pour offrir des performances de calcul multi-précision aux workflows d’inférence IA les plus efficaces. Propulsé par des cœurs Tensor et l’architecture Turing, le GPU NVIDIA Tesla T4 fournit un excellent rendement énergétique avec les workflows d’inférence et des performances multi-précision FP32, FP16, INT8 et INT4 sans précédent par rapport aux GPU NVIDIA Pascal® de génération précédente.

LA PLATEFORME DEEP LEARNING LA PLUS AVANCÉE DE L’INDUSTRIE

Le GPU NVIDIA Tesla T4 fournit un excellent rendement énergétique et des performances FP32, FP16, INT8 et INT4 sans précédent pour l’entraînement et l’inférence. Avec une puissance brute de 130 TOPs (téra-opérations par seconde) pour les opérations INT8 et 260 TOPs pour les opérations INT4, le Tesla T4 fournit l’efficacité la plus élevée de l’industrie pour les workflows d’inférence (grâce notamment à un rendement énergétique jusqu’à 40 fois plus important que les configurations basées sur le traitement CPU, tout ceci avec une consommation 60% plus faible). Sa consommation record de seulement 75 Watts en fait la solution idéale pour les serveurs Scale-Out sur systèmes Edge.

T4 INFERENCE PERFORMANCE

Resnet50

DeepSpeech2

GNMT

NVIDIA V100 GPU Powered by Volta Tensor Cores

LE RENDEMENT LE PLUS ÉLEVÉ AU MONDE POUR LES WORKFLOWS DEEP LEARNING


GPU NVIDIA V100 accéléré par les cœurs Volta Tensor

Spécifiquement conçus pour les workflows Deep Learning, les cœurs NVIDIA Tensor de l’architecture Volta fournissent une puissance sans précédent pour les opérations de multiplication matricielle FP16 et FP32 en précision mixte (jusqu’à 12 fois plus de performances TFlops dans les applications d’entraînement et jusqu’à 6 fois plus dans les applications d’inférence par rapport aux GPU NVIDIA Pascal™ de génération précédente). Cette capacité-clé permet de tripler les performances de calcul par rapport aux solutions Pascal.

Les 640 cœurs NVIDIA Tensor du Tesla V100 fonctionnent sur une matrice 4x4, et les chemins de données associés ont été conçus de manière à augmenter le rendement des opérations en virgule flottante avec une efficacité énergétique incomparable.

OPTIMISATION DES PERFORMANCES ET DU RENDEMENT

Deep Learning Training in Less Than a Workday

L’architecture NVIDIA Volta est équipée de 640 cœurs Tensor, exécutant chacun 64 opérations FMA en virgule flottante par cycle d’horloge. Les applications d’entraînement et d’inférence IA bénéficient par conséquent d’une puissance brute sans précédent (jusqu’à 125 TFlops). Les développeurs peuvent ainsi exécuter des calculs FP16 en précision mixte avec une accumulation FP32, tout en profitant de performances jusqu’à 3 fois plus élevées que sur les workflows Deep Learning de génération précédente et d’une convergence réseau exceptionnelle. Cette accélération significative des performances de calcul est l’une des principales innovations de la technologie Tensor. Les projets Deep Learning peuvent désormais être traités en quelques heures, ce qui constitue une avancée décisive.

27X Higher Throughput than CPU Server on Deep Learning Inference

Pour l’inférence, Tesla V100 offre des performances 3 fois plus rapides que les GPU de génération précédente et s’avère jusqu’à 47 fois plus rapide qu’un serveur uniquement basé sur le traitement CPU. Ces gains de performance significatifs sont réalisés en grande partie grâce aux cœurs Tensor de calcul en précision mixte, qui exploitent la plateforme programmable NVIDIA TensorRT™ pour l’accélération d’inférences.

Accélération significative des performances de calcul

Consultez notre dossier pour en savoir plus sur les cœurs Tensor et l’architecture NVIDIA Volta.