Architecture NVIDIA Ampere

Au cœur des Data Centers les plus performants et évolutifs au monde 

Au cœur des Data Centers les plus performants et évolutifs au monde

Les scientifiques, les chercheurs et les ingénieurs - véritables Da Vinci et Einstein de notre époque - travaillent sans relâche pour mener à bien les projets scientifiques, industriels et Big Data les plus importants qui soient grâce à la puissance phénoménale de l’intelligence artificielle (IA) et du calcul haute performance (HPC). Conçue pour l'ère du calcul élastique, l’architecture NVIDIA Ampere fournit des capacités d’accélération incomparables à tous les niveaux, ce qui permet aux innovateurs d’exprimer tout leur talent pour accomplir des travaux d’une importance capitale.

Des innovations révolutionnaires

NVIDIA Ampere, qui embarque 54 milliards de transistors et repose sur la puce à 7 nm la plus avancée jamais conçue, se distingue par cinq innovations technologiques majeures.

Cœurs Tensor de troisième génération

Cœurs Tensor de troisième génération

Mise en œuvre pour la première fois avec l’architecture NVIDIA Volta™, la technologie de cœurs NVIDIA Tensor a offert des gains de performance considérables pour l’intelligence artificielle, ce qui a permis de réduire les délais d’entraînement de plusieurs semaines à quelques heures tout en offrant une accélération significative des workflows d’inférence. L’architecture NVIDIA Ampere optimise les performances de calcul en ouvrant la voie à de nouveaux niveaux de précision (TF32 et FP64). Cette innovation technologique accélère et simplifie l’adoption des applications d’IA et apporte toute la puissance des cœurs NVIDIA Tensor aux workflows de calcul haute performance.

Les opérations TF32 fonctionnent de la même manière que les opérations FP32 tout en offrant une accélération jusqu’à 10 fois plus élevée pour les applications d’IA - sans nécessiter le moindre changement de code. En utilisant la technologie NVIDIA de précision mixte automatique,les chercheurs peuvent bénéficier de performances jusqu’à deux fois plus importantes avec une seule ligne de code supplémentaire. De plus, grâce à une prise en charge totale des opérations bfloat16, INT8 et INT4, les cœurs Tensor des GPU NVIDIA A100 Tensor Core forment un accélérateur incroyablement polyvalent pour les procédures d'entraînement IA et d’inférence. Et grâce à la puissance des cœurs Tensor pour le calcul haute performance, la plateforme A100 permet par ailleurs d’utiliser des opérations matricielles certifiées IEEE de précision FP64.

Technologie de GPU multi-instances (MIG)

Toutes les applications d’IA et de HPC peuvent tirer parti de l’accélération GPU, mais toutes les applications n’ont pas besoin de mobiliser l’intégralité des ressources d’un GPU A100. Grâce à la technologie de GPU multi-instances (MIG), chaque GPU A100 peut être partitionné en sept instances distinctes, entièrement isolées et sécurisées au niveau matériel avec leur propre mémoire à bande passante élevée, un cache spécial et des cœurs de calcul dédiés. Les développeurs peuvent désormais profiter de capacités d'accélération sans précédent dans toutes leurs applications, peu importe leur taille, en bénéficiant d’une qualité de service optimale. Les administrateurs informatiques peuvent par ailleurs mettre en œuvre des GPU parfaitement calibrés pour chaque tâche, en optimisant la densité d’utilisation et en simplifiant les modalités d’accès aux applications dans les environnements virtualisés ou sur les serveurs sans système d’exploitation.

Technologie de GPU multi-instances (MIG)

Dispersion structurelle

Les réseaux modernes d’IA, qui gagnent sans cesse en taille et en complexité, se chiffrent aujourd’hui en millions ou milliards de paramètres. Bon nombre de ces paramètres ne sont pas requis pour réaliser des prédictions et des inférences précises, et il est possible d’en convertir certains en chaînes de zéros pour "disperser" les modèles sans en compromettre la précision. Tensor Cores in A100 fournissent des performances jusqu’à 2X plus élevées avec les modèles dispersés. Cette fonctionnalité de dispersion bénéficie avant tout aux inférences d’IA, mais il est également possible de l’utiliser pour améliorer les performances d’entraînement numérique. 

Dispersion structurelle
Smarter and Faster Memory

Mémoire plus rapide et intelligente

Le système A100 apporte une puissance de calcul sans précédent aux Data Centers. Pour optimiser l’utilisation des moteurs de calcul, le système est doté d’une bande passante ultraperformante de 1,5 téraoctets par seconde (To/s), ce qui représente un gain de performance de 67 % par rapport à la génération précédente. NVIDIA A100 dispose par ailleurs d’une mémoire sur processeur bien plus importante, qui permet de maximiser les performances de calcul et inclut notamment un cache de niveau 2 à 40 Mo, soit sept fois plus que les produits de génération précédente.

Accélération de la convergence sur les systèmes Edge

La combinaison de l’architecture NVIDIA Ampere et de la technologie Mellanox ConnectX-6 Dx SmartNIC au sein de la plateforme NVIDIA EGX™ A100 offre des capacités de calcul et d’accélération réseau sans précédent pour traiter d’importants volumes de données à la périphérie des réseaux. SmartNIC de Mellanox inclut des fonctionnalités avancées de sécurité et permet de décrypter les données à un débit pouvant atteindre 200 gigaoctets par seconde (Go/s), tandis que la technologie GPUDirect™ assure un transfert direct des trames vidéo dans la mémoire GPU pour un traitement basé sur l’IA. Grâce à EGX A100, les entreprises peuvent accélérer les déploiements d’IA sur les systèmes Edge de manière mieux sécurisée et plus efficace.

Accélération de la convergence sur les systèmes Edge

Aperçu de l’architecture NVIDIA Ampere

Rejoignez-nous pour suivre ce webinaire et découvrir les nouveautés de l’architecture NVIDIA Ampere ainsi que son intégration dans le GPU NVIDIA A100.