Introduzida pela primeira vez na arquitetura NVIDIA Volta™, a tecnologia NVIDIA Tensor Core trouxe grandes acelerações à AI, diminuindo o tempo de treinamento de semanas para horas e fornecendo aceleração maciça à inferência. A arquitetura NVIDIA Ampere se baseia nestas inovações, trazendo novas precisões - Tensor Float (TF32) e ponto flutuante 64 (FP64) - para acelerar e simplificar a adoção da AI e estender o poder dos Tensor Cores à HPC.
O TF32 funciona exatamente como o FP32, oferecendo acelerações de até 10 vezes para AI sem exigir nenhuma alteração no código. Usando a Precisão Mista Automática da NVIDIA (NVIDIA Automatic Mixed Precision), os pesquisadores podem obter um desempenho adicional de 2 vezes com apenas uma linha de código adicional. E com suporte para bfloat16, INT8 e INT4, os Tensor Cores nas GPUs NVIDIA A100 Tensor Core criam um acelerador incrivelmente versátil para treinamento e inferência em AI. Trazendo o poder dos Tensor Cores para o HPC, a A100 também permite operações de matriz com precisão FP64 completa, certificada pela IEEE.