GPU NVIDIA A2 Tensor Core

GPU qui apporte les solutions d’IA de NVIDIA à tous les serveurs.

Inférences d’entrée de gamme hautement polyvalentes

Le GPU d’entrée de gamme NVIDIA A2 Tensor Core facilite la mise en œuvre des workflows d’inférence grâce à une conception compacte à hautes performances et à faible consommation pour les applications d’IA à l’Edge. Le GPU A2, qui se distingue par une configuration PCIe Gen4 compacte et une enveloppe thermique (TDP) configurable de 40 à 60 Watts, permet d’accélérer les workflows d’inférence de manière versatile sur n’importe quel serveur pour un déploiement à l’échelle.

Performances d’inférence jusqu’à 20 fois élevées

Les inférences d’IA servent à améliorer la qualité de vie des usagers du numérique en leur proposant des expériences intelligentes en temps réel, mais aussi à collecter des informations à haute valeur ajoutée à partir de milliards de capteurs et de caméras. Par rapport à des serveurs uniquement basés sur le traitement CPU, les serveurs Edge et les serveurs d’entrée de gamme équipés de GPU NVIDIA A2 Tensor Core offrent jusqu’à 20 fois plus de performances d’inférence, mettant instantanément à niveau n’importe quel serveur pour prendre en charge les applications d’IA modernes.

Vision par ordinateur
(EfficientDet-DO)

Traitement automatique du langage naturel
(BERT-Large)

Synthèse vocale
(Tacotron2 + Waveglow)

Comparisons of one NVIDIA A2 Tensor Core GPU versus a dual-socket Xeon Gold 6330N CPU

Performances d’IVA plus élevées
sur les plateformes Edge intelligentes

Les serveurs équipés de GPU NVIDIA A2 offrent jusqu’à 1,3 fois plus de performances pour des cas d’utilisation sur les plateformes Edge intelligentes dans des champs d’application comme les villes connectées, la production industrielle et la vente au détail. Les GPU NVIDIA A2 exécutant des charges de travail pour l’IVA garantissent des déploiements plus efficaces avec un rapport qualité-prix jusqu’à 1,6 fois plus élevé et un rendement énergétique supérieur de 10 % par rapport aux générations de GPU précédentes.

Performances d’IVA (normalisées)

Performances d’IVA (normalisées)

Optimisation pour tous les serveurs

Le GPU NVIDIA A2 a été optimisé pour les charges de travail d’inférence et les déploiements sur des serveurs d’entrée de gamme contraints par des exigences très strictes en matière d’espace et de consommation, dans des champs d’application comme la 5G à l’Edge ou les environnements industriels. Le GPU A2 est doté d’une configuration compacte à consommation réduite. Son enveloppe thermique est comprise entre 40 Watts et 60 Watts, ce qui en fait la solution idéale pour n’importe quel serveur.  

Consommation réduite et TDP configurable

Consommation réduite et TDP configurable

Performances d’inférence de pointe basées sur l’IA pour le Cloud, les Data Centers et les systèmes Edge

Les workflows d’inférence reposant sur l’IA stimulent l’innovation dans de nombreux secteurs allant de l’Internet grand public jusqu’aux services de santé et aux sciences de la vie en passant par les services financiers, la vente au détail, la production industrielle et le calcul intensif. Les serveurs qui intègrent des GPU A2 compacts à basse consommation (mais aussi des GPU NVIDIA A100 ou A30 Tensor Core) facilitent la mise en œuvre des inférences basées sur l’IA, que ce soit dans le Cloud, sur des Data Centers ou à l’Edge. L’association du GPU A2 et des services d’IA de NVIDIA pour l’inférence garantit un déploiement optimisé de vos applications d’IA sur un nombre de serveurs moins important, ce qui réduit la consommation globale et se traduit par un accès plus rapide aux informations avec des coûts d’exploitation nettement inférieurs.

Performances d’inférence de pointe basées sur l’IA pour le Cloud, les Data Centers et les systèmes Edge

Conçu pour une utilisation en entreprise

NVIDIA AI Enterprise

NVIDIA AI Enterprise est une suite logicielle d’IA et d’analyse de données de bout en bout native pour le Cloud, qui a été conçue par NVIDIA pour une exécution sur VMware vSphere avec un GPU A2 dans les environnements de virtualisation basés sur un hyperviseur. Cette plateforme à haut degré d’innovation facilite la gestion et la mise à l’échelle des charges de travail d’IA et d’inférence dans les Clouds hybrides modernes.

En savoir plus sur NVIDIA AI Enterprise ›

A30 et la technologie de GPU multi-instances (MIG) maximisent l’utilisation des infrastructures accélérées par GPU
A30 et la technologie de GPU multi-instances (MIG) maximisent l’utilisation des infrastructures accélérées par GPU

Systèmes NVIDIA certifiés pour le calcul généraliste

Assemblés et vendus par les partenaires OEM de NVIDIA, les systèmes NVIDIA certifiés™ équipés d’un GPU NVIDIA A2 associent une accélération significative du calcul informatique et des technologies sécurisées de mise en réseau à haute vitesse au sein de Data Centers d’entreprise axés sur l’innovation. Ce programme de certification permet aux clients d’identifier, d’acquérir et de déployer des systèmes pour exécuter des applications d’IA modernes ou traditionnelles à partir du catalogue NVIDIA NGC™ sur une infrastructure unique à hautes performances, à la fois rentable et évolutive.

En savoir plus sur les systèmes NVIDIA certifiés ›

Toute la puissance de l’architecture NVIDIA Ampere

Conçue pour l'ère du calcul élastique, l’architecture NVIDIA Ampere fournit les capacités d’accélération et les performances requises pour l’exécution des applications d’entreprise modernes. Découvrez les composants essentiels des Data Centers élastiques les plus performants au monde.

En savoir plus sur l’architecture NVIDIA Ampere ›

A30 et la technologie de GPU multi-instances (MIG) maximisent l’utilisation des infrastructures accélérées par GPU

Spécifications techniques

Peak FP32 4.5 TF
TF32 Tensor Core 9 TF | 18 TF¹
BFLOAT16 Tensor Core 18 TF | 36 TF¹
Peak FP16 Tensor Core 18 TF | 36 TF¹
Peak INT8 Tensor Core 36 TOPS | 72 TOPS¹
Peak INT4 Tensor Core 72 TOPS | 144 TOPS¹
RT Cores 10
Media engines 1 video encoder
2 video decoders (includes AV1 decode)
GPU memory 16GB GDDR6
GPU memory bandwidth 200GB/s
Interconnect PCIe Gen4 x8
Form factor 1-slot, low-profile PCIe
Max thermal design power (TDP) 40–60W (configurable)
Virtual GPU (vGPU) software support² NVIDIA Virtual PC (vPC), NVIDIA Virtual Applications (vApps), NVIDIA RTX Virtual Workstation (vWS), NVIDIA AI Enterprise, NVIDIA Virtual Compute Server (vCS)

Aperçu de l’architecture NVIDIA Ampere

Prenez connaissance des technologies de pointe de l’architecture Ampere et découvrez les différents GPU qui en tirent parti.