ARCHITECTURE NVIDIA AMPERE

Au cœur des Data Centers les plus performants et évolutifs au monde 

AU CŒUR DES DATA CENTERS LES PLUS PERFORMANTS ET ÉVOLUTIFS AU MONDE

Les scientifiques, les chercheurs et les ingénieurs travaillent sans relâche pour mener à bien les projets scientifiques, industriels et Big Data les plus importants qui soient grâce à la puissance phénoménale de l’intelligence artificielle (IA) et du calcul haute performance (HPC). Pendant ce temps, les entreprises cherchent à exploiter la puissance de l’IA afin d’extraire de nouvelles données d’ensembles de données conséquents, à la fois sur site et dans le cloud. Conçue pour l’ère du calcul élastique, l’architecture NVIDIA Ampere fournit des capacités d’accélération incomparables à tous les niveaux.

DES INNOVATIONS RÉVOLUTIONNAIRES

L’architecture NVIDIA Ampere, qui embarque 54 milliards de transistors et repose sur la puce à 7 nm la plus avancée jamais conçue, se distingue par six innovations technologiques majeures.

Cœurs Tensor de troisième génération

Mise en œuvre pour la première fois avec l’architecture NVIDIA Volta™,  la technologie de cœurs NVIDIA Tensor a offert des gains de performance considérables pour l’intelligence artificielle, ce qui a permis de réduire les délais d’entraînement de plusieurs semaines à quelques heures tout en offrant une accélération significative des workflows d’inférence. L’architecture NVIDIA Ampere optimise les performances de calcul en ouvrant la voie à de nouveaux niveaux de précision (TF32 et FP64). Cette innovation technologique accélère et simplifie l’adoption des applications d’IA et apporte toute la puissance des cœurs NVIDIA Tensor aux workflows de calcul haute performance.

Les opérations TF32 fonctionnent de la même manière que les opérations FP32 tout en offrant une accélération jusqu’à 20 fois plus élevée pour les applications d’IA, sans nécessiter le moindre changement de code. Avec la fonctionnalité NVIDIA Automatic Mixed Precision, les chercheurs peuvent également multiplier les performances par deux grâce à la précision mixte automatique et le FP16 en ajoutant simplement quelques lignes de code. De plus, grâce à une prise en charge des opérations bfloat16, INT8 et INT4, les cœurs Tensor des GPU de l’architecture NVIDIA Ampere forment un accélérateur incroyablement polyvalent pour l’entraînement de l’IA et l’inférence. Et grâce à la puissance des cœurs Tensor pour le calcul haute performance, les GPU A100 et A30 permettent par ailleurs d’utiliser des opérations matricielles certifiées IEEE de précision FP64. 

Cœurs Tensor de troisième génération
Technologie de GPU multi-instances (MIG)

Technologie de GPU multi-instances (MIG)

Toutes les applications d’IA et de HPC peuvent tirer parti de l’accélération, mais toutes les applications n’ont pas besoin de mobiliser l’intégralité des ressources d’un GPU. La fonctionnalité des GPU multi-instances (MIG) est prise en charge sur les GPU A100 et A30 et permet à la charge de travail de partager le GPU. Grâce à la technologie MIG, chaque GPU peut être partitionné en plusieurs instances distinctes, entièrement isolées et sécurisées au niveau matériel avec sa propre mémoire à bande passante élevée, un cache spécial et des cœurs de calcul dédiés. Les développeurs peuvent désormais profiter de capacités d'accélération sans précédent dans toutes leurs applications, peu importe leur taille, en bénéficiant d’une qualité de service optimale. Les administrateurs informatiques peuvent par ailleurs mettre en œuvre des GPU parfaitement calibrés pour chaque tâche, en optimisant la densité d’utilisation et en simplifiant les modalités d’accès aux applications dans les environnements virtualisés ou sur les serveurs sans système d’exploitation.

Dispersion structurelle

Dispersion structurelle

Les réseaux modernes d’IA, qui gagnent sans cesse en taille et en complexité, se chiffrent aujourd’hui en millions ou milliards de paramètres. Bon nombre de ces paramètres ne sont pas requis pour réaliser des prédictions et des inférences précises, et il est possible d’en convertir certains en chaînes de zéros pour "disperser" les modèles sans en compromettre la précision. Les cœurs Tensor fournissent des performances jusqu’à deux fois plus élevées avec les modèles dispersés. Cette fonctionnalité de dispersion bénéficie avant tout aux inférences d’IA, mais il est également possible de l’utiliser pour améliorer les performances d’entraînement numérique. 

Cœurs RT de 2e génération

Les cœurs RT de deuxième génération intégrés à l’architecture NVIDIA Ampere des GPU NVIDIA A40 et A10 vous offrent des gains de performance considérables avec vos workflows de rendu photoréaliste pour la production cinématographique, d’évaluation collaborative pour la création architecturale ou de prototypage virtuel pour la conception de produits. Les cœurs RT, qui accélèrent le rendu des effets de motion blur en ray tracing pour offrir une précision visuelle accrue, peuvent également exécuter en simultané des opérations de shading ou de réduction du bruit avec une prise en charge totale du ray tracing.

Cœurs RT de 2e génération
 Mémoire plus rapide et intelligente

Mémoire plus rapide et intelligente

A100 apporte une puissance de calcul sans précédent aux Data Centers. Pour optimiser l’utilisation des moteurs de calcul, le système est doté d’une bande passante ultraperformante de 2 téraoctets par seconde (To/s), ce qui représente des performances plus de deux fois supérieures à celles de la génération précédente. NVIDIA A100 dispose par ailleurs d’une mémoire sur processeur bien plus importante, qui permet de maximiser les performances de calcul et inclut notamment un cache de niveau 2 à 40 Mo, soit sept fois plus que les produits de génération précédente.

Accélération de la convergence sur les systèmes Edge

La combinaison de l’architecture NVIDIA Ampere et de l’unité de traitement de données (DPU) NVIDIA BlueField®-2 dans des accélérateurs convergés NVIDIA permet d’accélérer radicalement les calculs et le réseau afin de traiter les énormes volumes de données générés par le Data Center et à la périphérie. BlueField-2 combine la puissance exceptionnelle des adaptateurs NVIDIA ConnectX®-6 DX à une série de cœurs ARM programmables ainsi que des fonctionnalités de déchargement matériel pour le stockage défini par logiciel, la mise en réseau, la sécurité et la gestion des charges de travail. Grâce aux accélérateurs convergés NVIDIA, les clients peuvent exécuter des charges de travail riches en données en périphérie ou dans des Data centers, avec des performances et un niveau de sécurité optimaux.

Accélération de la convergence sur les systèmes Edge
Optimisation de la conception pour la densité

Optimisation de la conception pour la densité

 Le GPU NVIDIA A16  est proposé dans une conception de carte "quad-GPU" optimisée pour la densité d’utilisateurs. Associé au logiciel NVIDIA Virtual PC (vPC), il permet d’accéder à des PC virtuels aux graphismes poussés depuis n’importe où. Avec NVIDIA A16, profitez d’une fréquence d’images élevée et d’une latence réduite pour l’utilisateur final comparée à un VDI basé uniquement sur CPU. Vous bénéficierez d’applications plus réactives et d’une expérience PC identique à celle d’un PC natif.

Aperçu de l’architecture NVIDIA Ampere

Découvrez les technologies de pointe de cette architecture ainsi que toute sa gamme de GPU.