ARCHITECTURE NVIDIA AMPERE

Au cœur des Data Centers les plus performants et évolutifs au monde 

AU CŒUR DES DATA CENTERS LES PLUS PERFORMANTS ET ÉVOLUTIFS AU MONDE

Relever les défis scientifiques, industriels et commerciaux les plus importants au monde grâce à la puissance combinée de l’IA et du HPC. Visualiser du contenu complexe pour concevoir des produits à la pointe de la technologie, raconter des histoires immersives et imaginer les villes de demain. Collecter des informations à haute valeur ajoutée à partir d’importants volumes de données. Conçue pour la nouvelle ère du calcul élastique, l’architecture NVIDIA Ampere vous aide à relever tous ces défis en vous fournissant des capacités d’accélération incomparables à tous les niveaux.

DES INNOVATIONS RÉVOLUTIONNAIRES

L’architecture NVIDIA Ampere, qui embarque 54 milliards de transistors et repose sur la puce à 7 nm la plus avancée jamais conçue, se distingue par six innovations technologiques majeures.

Cœurs Tensor de troisième génération

Mise en œuvre pour la première fois avec l’architecture NVIDIA Volta™,  la technologie de cœurs NVIDIA Tensor a offert des gains de performance considérables pour l’intelligence artificielle, ce qui a permis de réduire les délais d’entraînement de plusieurs semaines à quelques heures tout en offrant une accélération significative des workflows d’inférence. L’architecture NVIDIA Ampere optimise les performances de calcul en ouvrant la voie à de nouveaux niveaux de précision (TF32 et FP64). Cette innovation technologique accélère et simplifie l’adoption des applications d’IA et apporte toute la puissance des cœurs NVIDIA Tensor aux workflows de calcul haute performance.

Les opérations TF32 fonctionnent de la même manière que les opérations FP32 tout en offrant une accélération jusqu’à 20 fois plus élevée pour les applications d’IA, sans nécessiter le moindre changement de code. Avec la fonctionnalité NVIDIA Automatic Mixed Precision, les chercheurs peuvent également multiplier les performances par deux grâce à la précision mixte automatique et le FP16 en ajoutant simplement quelques lignes de code. De plus, grâce à une prise en charge des opérations bfloat16, INT8 et INT4, les cœurs Tensor des GPU de l’architecture NVIDIA Ampere forment un accélérateur incroyablement polyvalent pour l’entraînement de l’IA et l’inférence. Et grâce à la puissance des cœurs Tensor pour le calcul haute performance, les GPU A100 et A30 permettent par ailleurs d’utiliser des opérations matricielles certifiées IEEE de précision FP64. 

Cœurs Tensor de troisième génération
Technologie de GPU multi-instances (MIG)

Technologie de GPU multi-instances (MIG)

Toutes les applications d’IA et de HPC peuvent tirer parti de l’accélération, mais toutes les applications n’ont pas besoin de mobiliser l’intégralité des ressources d’un GPU. La fonctionnalité des GPU multi-instances (MIG) est prise en charge sur les GPU A100 et A30 et permet à la charge de travail de partager le GPU. Grâce à la technologie MIG, chaque GPU peut être partitionné en plusieurs instances distinctes, entièrement isolées et sécurisées au niveau matériel avec sa propre mémoire à bande passante élevée, un cache spécial et des cœurs de calcul dédiés. Les développeurs peuvent désormais profiter de capacités d'accélération sans précédent dans toutes leurs applications, peu importe leur taille, en bénéficiant d’une qualité de service optimale. Les administrateurs informatiques peuvent par ailleurs mettre en œuvre des GPU parfaitement calibrés pour chaque tâche, en optimisant la densité d’utilisation et en simplifiant les modalités d’accès aux applications dans les environnements virtualisés ou sur les serveurs sans système d’exploitation.

Dispersion structurelle

Dispersion structurelle

Les réseaux modernes d’IA, qui gagnent sans cesse en taille et en complexité, se chiffrent aujourd’hui en millions ou milliards de paramètres. Bon nombre de ces paramètres ne sont pas requis pour réaliser des prédictions et des inférences précises, et il est possible d’en convertir certains en chaînes de zéros pour "disperser" les modèles sans en compromettre la précision. Les cœurs Tensor fournissent des performances jusqu’à deux fois plus élevées avec les modèles dispersés. Cette fonctionnalité de dispersion bénéficie avant tout aux inférences d’IA, mais il est également possible de l’utiliser pour améliorer les performances d’entraînement numérique. 

Cœurs RT de 2e génération

Les cœurs RT de deuxième génération, intégrés à l’architecture NVIDIA Ampere des GPU NVIDIA A40, vous offrent des gains de performance considérables avec vos workflows de rendu photoréaliste pour la production cinématographique, d’évaluation collaborative pour la création architecturale ou de prototypage virtuel pour la conception de produits. Les cœurs RT, qui accélèrent le rendu des effets de motion blur en ray tracing pour offrir une précision visuelle accrue, peuvent également exécuter en simultané des opérations de shading ou de réduction du bruit avec une prise en charge totale du ray tracing.

Cœurs RT de 2e génération
 Mémoire plus rapide et intelligente

Mémoire plus rapide et intelligente

A100 apporte une puissance de calcul sans précédent aux Data Centers. Pour optimiser l’utilisation des moteurs de calcul, le système est doté d’une bande passante ultraperformante de 2 téraoctets par seconde (To/s), ce qui représente des performances plus de deux fois supérieures à celles de la génération précédente. NVIDIA A100 dispose par ailleurs d’une mémoire sur processeur bien plus importante, qui permet de maximiser les performances de calcul et inclut notamment un cache de niveau 2 à 40 Mo, soit sept fois plus que les produits de génération précédente.

Évolutivité optimisée

Les GPU et les accélérateurs convergés de NVIDIA garantissent une évolutivité maximale pour une mise en œuvre à basse consommation des fonctionnalités de mise en réseau et de sécurité dans le Cloud, sur les Data Centers et à l’Edge.

Puissance optimisée pour tous les serveurs

Le GPU NVIDIA A2, doté de la plus faible empreinte énergétique de sa gamme de produits, a été optimisé pour les charges de travail d’inférence et les déploiements sur des serveurs d’entrée de gamme contraints par des exigences très strictes en matière d’espace et de consommation, dans des champs d’application comme la 5G à l’Edge ou les environnements industriels. Le GPU A2 est doté d’une configuration compacte à consommation réduite. Son enveloppe thermique (TDP) est comprise entre 40 Watts et 60 Watts, ce qui en fait la solution idéale pour n’importe quel serveur.

GPU NVIDIA A100 Tensor Core
Accélérateurs convergés de NVIDIA

Unification du calcul et accélération du réseau

Dans les accélérateurs convergés de NVIDIA, l’architecture Ampere et le DPU NVIDIA BlueField®-2 s’unissent pour fournir des performances sans précédent avec une sécurité accrue et une mise en réseau optimisée pour les charges de travail reposant sur l’IA dans des domaines tels que l’Edge Computing, les télécommunications et la sécurité des réseaux. BlueField-2 combine la puissance exceptionnelle des adaptateurs NVIDIA ConnectX®-6 Dx à une série de cœurs Arm® programmables ainsi qu’à des fonctionnalités de déchargement matériel pour le stockage défini par logiciel, la mise en réseau, la sécurité et la gestion des charges de travail. Les accélérateurs convergés de NVIDIA fournissent aux Data Centers un nouveau niveau de rendement et de sécurité permettant de traiter nettement plus efficacement des charges de travail accélérées par GPU et exigeantes en ressources réseau.

Optimisation de la conception pour la densité

Le GPU NVIDIA A16  est proposé dans une conception de carte "quad-GPU" optimisée pour la densité d’utilisateurs. Associé au logiciel NVIDIA Virtual PC (vPC), il permet d’accéder à des PC virtuels aux graphismes poussés depuis n’importe où. Avec NVIDIA A16, profitez d’une fréquence d’images élevée et d’une latence réduite pour l’utilisateur final comparée à un VDI basé uniquement sur CPU. Vous bénéficierez d’applications plus réactives et d’une expérience PC identique à celle d’un PC natif.

Optimisation de la conception pour la densité
Racine de confiance matérielle

Déploiements sécurisés

Les déploiements sécurisés sont essentiels à la bonne tenue des opérations commerciales au sein de chaque entreprise. L’architecture NVIDIA Ampere garantit un démarrage sécurisé grâce à une authentification par code de confiance et à des protections renforcées pour la restauration des données en cas d’attaques malveillantes, ce qui contribue à réduire les pertes opérationnelles et à accélérer les charges de travail.

Aperçu de l’architecture NVIDIA Ampere

Découvrez les technologies de pointe de cette architecture ainsi que toute sa gamme de GPU.