Mise en œuvre pour la première fois avec l’architecture NVIDIA Volta™, la technologie de cœurs NVIDIA Tensor a offert des gains de performance considérables pour l’intelligence artificielle, ce qui a permis de réduire les délais d’entraînement de plusieurs semaines à quelques heures tout en offrant une accélération significative des workflows d’inférence. L’architecture NVIDIA Ampere optimise les performances de calcul en ouvrant la voie à de nouveaux niveaux de précision (TF32 et FP64). Cette innovation technologique accélère et simplifie l’adoption des applications d’IA et apporte toute la puissance des cœurs NVIDIA Tensor aux workflows de calcul haute performance.
Les opérations TF32 fonctionnent de la même manière que les opérations FP32 tout en offrant une accélération jusqu’à 10 fois plus élevée pour les applications d’IA - sans nécessiter le moindre changement de code. En utilisant la technologie NVIDIA de précision mixte automatique,les chercheurs peuvent bénéficier de performances jusqu’à deux fois plus importantes avec une seule ligne de code supplémentaire. De plus, grâce à une prise en charge totale des opérations bfloat16, INT8 et INT4, les cœurs Tensor des GPU NVIDIA A100 Tensor Core forment un accélérateur incroyablement polyvalent pour les procédures d'entraînement IA et d’inférence. Et grâce à la puissance des cœurs Tensor pour le calcul haute performance, la plateforme A100 permet par ailleurs d’utiliser des opérations matricielles certifiées IEEE de précision FP64.