GPU qui apporte les solutions d’IA de NVIDIA à tous les serveurs.
Le GPU d’entrée de gamme NVIDIA A2 Tensor Core facilite la mise en œuvre des workflows d’inférence grâce à une conception compacte à hautes performances et à faible consommation pour les applications d’IA à l’Edge. Le GPU A2, qui se distingue par une configuration PCIe Gen4 compacte et une enveloppe thermique (TDP) configurable de 40 à 60 Watts, permet d’accélérer les workflows d’inférence de manière versatile sur n’importe quel serveur pour un déploiement à l’échelle.
Les inférences d’IA servent à améliorer la qualité de vie des usagers du numérique en leur proposant des expériences intelligentes en temps réel, mais aussi à collecter des informations à haute valeur ajoutée à partir de milliards de capteurs et de caméras. Par rapport à des serveurs uniquement basés sur le traitement CPU, les serveurs Edge et les serveurs d’entrée de gamme équipés de GPU NVIDIA A2 Tensor Core offrent jusqu’à 20 fois plus de performances d’inférence, mettant instantanément à niveau n’importe quel serveur pour prendre en charge les applications d’IA modernes.
Comparisons of one NVIDIA A2 Tensor Core GPU versus a dual-socket Xeon Gold 6330N CPU
Configuration du système - [CPU : HPE DL380 Gen10 Plus, 2S Xeon Gold 6330N à 2,2 GHz, 512 Go DDR4] Traitement automatique du langage naturel : BERT-Large (longueur de séquence : 384, SQuAD : v1.1) | TensorRT 8.2, Précision : INT8, BS:1 (GPU) | OpenVINO 2021.4, Précision : INT8, BS:1 (CPU) Synthèse vocale : Tacotron2 + pipeline Waveglow de bout en bout (longueur d’entrée : 128) | PyTorch 1.9, Précision : FP16, BS:1 (GPU) | PyTorch 1.9, Précision : FP32, BS:1 (CPU) Vision par ordinateur : EfficientDet-D0 (COCO, 512x512) | TensorRT 8.2, Précision : INT8, BS:8 (GPU) | OpenVINO 2021.4, Précision : INT8, BS:8 (CPU)
Les serveurs équipés de GPU NVIDIA A2 offrent jusqu’à 1,3 fois plus de performances pour des cas d’utilisation sur les plateformes Edge intelligentes dans des champs d’application comme les villes connectées, la production industrielle et la vente au détail. Les GPU NVIDIA A2 exécutant des charges de travail pour l’IVA garantissent des déploiements plus efficaces avec un rapport qualité-prix jusqu’à 1,6 fois plus élevé et un rendement énergétique supérieur de 10 % par rapport aux générations de GPU précédentes.
Configuration du système - [Supermicro SYS-1029GQ-TRT, 2S Xeon Gold 6240 à 2,6 GHz, 512 Go DDR4, 1x NVIDIA A2 OU 1x NVIDIA T4] | Performances mesurées avec Deepstream 5.1. Réseaux : ShuffleNet-v2 (224x224), MobileNet-v2 (224x224). | Le pipeline englobe les performances de bout en bout pour la capture et le décodage vidéo, le prétraitement, le traitement par lots, l’inférence et le post-traitement.
Le GPU NVIDIA A2 a été optimisé pour les charges de travail d’inférence et les déploiements sur des serveurs d’entrée de gamme contraints par des exigences très strictes en matière d’espace et de consommation, dans des champs d’application comme la 5G à l’Edge ou les environnements industriels. Le GPU A2 est doté d’une configuration compacte à consommation réduite. Son enveloppe thermique est comprise entre 40 Watts et 60 Watts, ce qui en fait la solution idéale pour n’importe quel serveur.
Les workflows d’inférence reposant sur l’IA stimulent l’innovation dans de nombreux secteurs allant de l’Internet grand public jusqu’aux services de santé et aux sciences de la vie en passant par les services financiers, la vente au détail, la production industrielle et le calcul intensif. Les serveurs qui intègrent des GPU A2 compacts à basse consommation (mais aussi des GPU NVIDIA A100 ou A30 Tensor Core) facilitent la mise en œuvre des inférences basées sur l’IA, que ce soit dans le Cloud, sur des Data Centers ou à l’Edge. L’association du GPU A2 et des services d’IA de NVIDIA pour l’inférence garantit un déploiement optimisé de vos applications d’IA sur un nombre de serveurs moins important, ce qui réduit la consommation globale et se traduit par un accès plus rapide aux informations avec des coûts d’exploitation nettement inférieurs.
NVIDIA AI Enterprise est une suite logicielle d’IA et d’analyse de données de bout en bout native pour le Cloud, qui a été conçue par NVIDIA pour une exécution sur VMware vSphere avec un GPU A2 dans les environnements de virtualisation basés sur un hyperviseur. Cette plateforme à haut degré d’innovation facilite la gestion et la mise à l’échelle des charges de travail d’IA et d’inférence dans les Clouds hybrides modernes.
En savoir plus sur NVIDIA AI Enterprise ›
Assemblés et vendus par les partenaires OEM de NVIDIA, les systèmes NVIDIA certifiés™ équipés d’un GPU NVIDIA A2 associent une accélération significative du calcul informatique et des technologies sécurisées de mise en réseau à haute vitesse au sein de Data Centers d’entreprise axés sur l’innovation. Ce programme de certification permet aux clients d’identifier, d’acquérir et de déployer des systèmes pour exécuter des applications d’IA modernes ou traditionnelles à partir du catalogue NVIDIA NGC™ sur une infrastructure unique à hautes performances, à la fois rentable et évolutive.
En savoir plus sur les systèmes NVIDIA certifiés ›
Conçue pour l'ère du calcul élastique, l’architecture NVIDIA Ampere fournit les capacités d’accélération et les performances requises pour l’exécution des applications d’entreprise modernes. Découvrez les composants essentiels des Data Centers élastiques les plus performants au monde.
En savoir plus sur l’architecture NVIDIA Ampere ›
1 Avec dispersion 2 Compatibilité assurée dans une version ultérieure de vGPU
Prenez connaissance des technologies de pointe de l’architecture Ampere et découvrez les différents GPU qui en tirent parti.