GPU NVIDIA V100 À CŒURS TENSOR

Le premier GPU Tensor Core

Bienvenue dans la nouvelle ère de l’IA

Les volumes exponentiels de données recèlent des informations pouvant révolutionner des industries entières, des nouveaux systèmes personnalisés de traitement du cancer à la prévision des catastrophes naturelles en passant par les systèmes de synthèse vocale pour assistants personnels.


NVIDIA® V100 à cœurs Tensor, le GPU pour Data Center le plus avancé au monde, a été conçu pour accélérer l’IA, le calcul haute performance (HPC), la science des données et le rendu graphique. Basé sur l’architecture NVIDIA Volta et équipé de 16 Go ou de 32Go de mémoire dédiée, le V100 délivre les performances de 32 CPU au sein d’un seul GPU ; ce qui permet aux chercheurs, aux data scientists et aux ingénieurs d’accélérer leurs procédures d’optimisation mémoire pour se concentrer sur de nouvelles innovations reposant sur les capacités phénoménales de l’IA.

Exécutez des charges de travail d’IA et de HPC dans un environnement virtuel avec des fonctionnalités avancées de sécurité et de gestion grâce au logiciel NVIDIA Virtual Compute Server (vCS).

Entraînement 32 fois plus rapide qu'avec le traitement CPU

Entraînement ResNet-50, jeu de données : ImageNet2012, BS = 256 | Comparaison NVIDIA V100 : serveur NVIDIA DGX-2™, 1x V100 SXM3 32 Go, MXNet 1.5.1, conteneur = 19.11-PY3, précision mixte, rendement : 1 525 images/s | Comparatif Intel : Supermicro SYS-1029GQ-TRT, 1x socket Intel Gold 6240 @ 2 GHz / 3,9 Hz Turbo, Tensorflow 0.18, FP32 (seule précision disponible), rendement : 48 images/s

Entraînement IA

De la reconnaissance vocale à l’entraînement des assistants personnels ou des nouveaux modèles de véhicules autonomes, les data scientists relèvent des défis incroyablement complexes grâce à l’IA. La résolution de ces défis nécessite d’entraîner des modèles de Deep Learning éminemment complexes, dans des délais toujours plus courts.

Avec ses 640 cœurs Tensor, V100 est le tout premier GPU à faire tomber la barrière des 100 téraflops (TFlops) de performances Deep Learning. La technologie d’interconnexion NVIDIA NVLink™ de nouvelle génération permet de connecter des GPU V100 multiples à plus de 300 Go/s pour déployer les serveurs de calcul les plus puissants au monde. Les modèles d’IA, qui auraient nécessité des semaines entières de calcul avec les précédents systèmes, peuvent désormais être entraînés en quelques jours seulement. Cette accélération significative des procédures d’entraînement permet d’accomplir de tout nouveaux projets grâce aux technologies d’IA.

DÉCOUVREZ COMMENT ACCÉLÉRER VOS MODÈLES D’IA VIA LES CŒURS TENSOR AVEC DES MODÈLES DE CALCUL À PRÉCISION MIXTE

Rendement d’inférence 24 fois plus important qu’un serveur CPU

Inférence avec réglage de base BERT, jeu de données : SQuADv 1.1, BS = 1, longueur de séquence = 128 | Comparaison NVIDIA V100 : Supermicro SYS-4029GP-TRT, 1x V100 PCIe 16 Go, conteneur en préversion, précision mixte, NVIDIA TensorRT™ 6.0, rendement : 557 phrases/s | Comparatif Intel : 1x socket Intel Gold 6240 @ 2,6 GHz / 3,9 Hz Turbo, FP32 (seule précision disponible), OpenVINO MKL-DNN v0.18, rendement : 23,5 phrases/s

Inférence IA

Pour nous proposer les informations, les services et les produits les plus pertinents qui soient, les entreprises du secteur Hyperscale s’attachent à exploiter le plein potentiel de l’intelligence artificielle. Répondre aux nombreuses demandes des utilisateurs n’en reste pas moins un défi de taille. Les entreprises Hyperscale les plus importantes estiment par exemple qu’il leur faudrait doubler leur capacité en Data Center si l’ensemble de leurs utilisateurs passaient trois minutes par jour à utiliser un service de reconnaissance vocale.

Le GPU V100 a été conçu pour offrir un maximum de performances avec les racks Hyperscale existants. Avec l’IA en son cœur, un seul GPU V100 peut fournir les mêmes performances d’inférence qu’un serveur basé sur le traitement CPU. Cette avancée significative en termes de rendement et d’efficacité énergétique va contribuer à accélérer l’avènement des services IA.

Un nœud de serveurs V100 peut remplacer jusqu’à 135 nœuds de serveurs CPU

Application (jeu de données) : MILC (APEX Medium) et Chroma (szscl21_24_128) | Serveur CPU : Intel Xeon Dual-Socket 8280 (Cascade Lake)

Calcul haute performance (HPC)

Le calcul haute performance (HPC) est un pilier de la science moderne. De la prévision météorologique à la recherche énergétique en passant par le développement de nouveaux médicaments, les chercheurs utilisent aujourd’hui des systèmes complexes pour simuler et interagir avec le monde qui nous entoure. L’intelligence artificielle fait avancer les workflows HPC en permettant aux chercheurs d’analyser des volumes de données plus importants, mais aussi de collecter rapidement de précieuses informations auparavant indécelables.

Le GPU V100 a été conçu pour la convergence des applications d’IA et de HPC. Il offre une plateforme avancée qui excelle aussi bien dans le calcul numérique pour les simulations scientifiques que dans l’analyse de données pour la recherche de nouvelles informations. En associant des cœurs NVIDIA CUDA® et NVIDIA Tensor au sein d’une architecture unifiée, un seul serveur équipé de GPU V100 peut remplacer des centaines de serveurs CPU génériques afin d’accélérer durablement les workflows IA et HPC. Tous les chercheurs et les ingénieurs peuvent désormais déployer des supercalculateurs basés sur l’IA pour accomplir leurs projets les plus ambitieux.

GPU POUR DATA CENTER

Tesla V100 NVLink pour Data Center

NVIDIA V100 POUR NVLINK

Des performances de calcul ultimes pour le Deep Learning.

Tesla V100 PCIe pour Data Center

NVIDIA V100 POUR PCIe

Une polyvalence exceptionnelle pour toutes les charges de travail.

NVIDIA V100 - Spécifications

 

V100 pour NVLink

V100 pour PCIe

V100S pour PCIe

PERFORMANCE
avec NVIDIA GPU Boost

Double précision
7,8 TFlops

Simple précision
15,7 TFlops

Deep Learning
125 TFlops

Double précision
7 TFlops

Simple précision
14 TFlops

Deep Learning
112 TFlops

Double précision
8,2 TFlops

Simple précision
16,4 TFlops

Deep Learning
130 TFlops

BANDE PASSANTE D’INTERCONNEXION
bidirectionnelle

NVLink
300 Go/s

PCIe
32 Go/s

PCIe
32 Go/s

MÉMOIRE
CoWoS stackée HBM2

CAPACITÉ
32/16 Go HBM2

BANDE PASSANTE
900 Go/s

CAPACITÉ
32 Go HBM2

BANDE PASSANTE
1 134 Go/s

PUISSANCE
Consommation maximale


300 WATTS


250 WATTS

Profitez gratuitement de notre offre d’essai

Les accélérateurs GPU les plus rapides au monde
pour les workflows HPC et Deep Learning.

OÙ ACHETER ?

Trouvez un partenaire NVIDIA pour le calcul accéléré
via le Réseau de partenaires NVIDIA (NPN).