Le premier GPU Tensor Core
Les volumes exponentiels de données recèlent des informations pouvant révolutionner des industries entières, des nouveaux systèmes personnalisés de traitement du cancer à la prévision des catastrophes naturelles en passant par les systèmes de synthèse vocale pour assistants personnels.
NVIDIA® V100 à cœurs Tensor, le GPU pour Data Center le plus avancé au monde, a été conçu pour accélérer l’IA, le calcul haute performance (HPC), la science des données et le rendu graphique. Basé sur l’architecture NVIDIA Volta et équipé de 16 Go ou de 32Go de mémoire dédiée, le V100 délivre les performances de 32 CPU au sein d’un seul GPU ; ce qui permet aux chercheurs, aux data scientists et aux ingénieurs d’accélérer leurs procédures d’optimisation mémoire pour se concentrer sur de nouvelles innovations reposant sur les capacités phénoménales de l’IA.
Exécutez des charges de travail d’IA et de HPC dans un environnement virtuel avec des fonctionnalités avancées de sécurité et de gestion grâce au logiciel NVIDIA Virtual Compute Server (vCS).
Entraînement ResNet-50, jeu de données : ImageNet2012, BS = 256 | Comparaison NVIDIA V100 : serveur NVIDIA DGX-2™, 1x V100 SXM3 32 Go, MXNet 1.5.1, conteneur = 19.11-PY3, précision mixte, rendement : 1 525 images/s | Comparatif Intel : Supermicro SYS-1029GQ-TRT, 1x socket Intel Gold 6240 @ 2 GHz / 3,9 Hz Turbo, Tensorflow 0.18, FP32 (seule précision disponible), rendement : 48 images/s
De la reconnaissance vocale à l’entraînement des assistants personnels ou des nouveaux modèles de véhicules autonomes, les data scientists relèvent des défis incroyablement complexes grâce à l’IA. La résolution de ces défis nécessite d’entraîner des modèles de Deep Learning éminemment complexes, dans des délais toujours plus courts.
Avec ses 640 cœurs Tensor, V100 est le tout premier GPU à faire tomber la barrière des 100 téraflops (TFlops) de performances Deep Learning. La technologie d’interconnexion NVIDIA NVLink™ de nouvelle génération permet de connecter des GPU V100 multiples à plus de 300 Go/s pour déployer les serveurs de calcul les plus puissants au monde. Les modèles d’IA, qui auraient nécessité des semaines entières de calcul avec les précédents systèmes, peuvent désormais être entraînés en quelques jours seulement. Cette accélération significative des procédures d’entraînement permet d’accomplir de tout nouveaux projets grâce aux technologies d’IA.
Inférence avec réglage de base BERT, jeu de données : SQuADv 1.1, BS = 1, longueur de séquence = 128 | Comparaison NVIDIA V100 : Supermicro SYS-4029GP-TRT, 1x V100 PCIe 16 Go, conteneur en préversion, précision mixte, NVIDIA TensorRT™ 6.0, rendement : 557 phrases/s | Comparatif Intel : 1x socket Intel Gold 6240 @ 2,6 GHz / 3,9 Hz Turbo, FP32 (seule précision disponible), OpenVINO MKL-DNN v0.18, rendement : 23,5 phrases/s
Pour nous proposer les informations, les services et les produits les plus pertinents qui soient, les entreprises du secteur Hyperscale s’attachent à exploiter le plein potentiel de l’intelligence artificielle. Répondre aux nombreuses demandes des utilisateurs n’en reste pas moins un défi de taille. Les entreprises Hyperscale les plus importantes estiment par exemple qu’il leur faudrait doubler leur capacité en Data Center si l’ensemble de leurs utilisateurs passaient trois minutes par jour à utiliser un service de reconnaissance vocale.
Le GPU V100 a été conçu pour offrir un maximum de performances avec les racks Hyperscale existants. Avec l’IA en son cœur, un seul GPU V100 peut fournir les mêmes performances d’inférence qu’un serveur basé sur le traitement CPU. Cette avancée significative en termes de rendement et d’efficacité énergétique va contribuer à accélérer l’avènement des services IA.
Application (jeu de données) : MILC (APEX Medium) et Chroma (szscl21_24_128) | Serveur CPU : Intel Xeon Dual-Socket 8280 (Cascade Lake)
Le calcul haute performance (HPC) est un pilier de la science moderne. De la prévision météorologique à la recherche énergétique en passant par le développement de nouveaux médicaments, les chercheurs utilisent aujourd’hui des systèmes complexes pour simuler et interagir avec le monde qui nous entoure. L’intelligence artificielle fait avancer les workflows HPC en permettant aux chercheurs d’analyser des volumes de données plus importants, mais aussi de collecter rapidement de précieuses informations auparavant indécelables.
Le GPU V100 a été conçu pour la convergence des applications d’IA et de HPC. Il offre une plateforme avancée qui excelle aussi bien dans le calcul numérique pour les simulations scientifiques que dans l’analyse de données pour la recherche de nouvelles informations. En associant des cœurs NVIDIA CUDA® et NVIDIA Tensor au sein d’une architecture unifiée, un seul serveur équipé de GPU V100 peut remplacer des centaines de serveurs CPU génériques afin d’accélérer durablement les workflows IA et HPC. Tous les chercheurs et les ingénieurs peuvent désormais déployer des supercalculateurs basés sur l’IA pour accomplir leurs projets les plus ambitieux.
Des performances de calcul ultimes pour le Deep Learning.
Une polyvalence exceptionnelle pour toutes les charges de travail.
Double précision 7,8 TFlops
Simple précision 15,7 TFlops
Deep Learning 125 TFlops
Double précision 7 TFlops
Simple précision 14 TFlops
Deep Learning 112 TFlops
Double précision 8,2 TFlops
Simple précision 16,4 TFlops
Deep Learning 130 TFlops
NVLink 300 Go/s
PCIe 32 Go/s
CAPACITÉ 32/16 Go HBM2
BANDE PASSANTE 900 Go/s
CAPACITÉ 32 Go HBM2
BANDE PASSANTE 1 134 Go/s
300 WATTS
250 WATTS
Les accélérateurs GPU les plus rapides au monde pour les workflows HPC et Deep Learning.
Trouvez un partenaire NVIDIA pour le calcul accéléré via le Réseau de partenaires NVIDIA (NPN).