Introducida por primera vez a la arquitectura NVIDIA Volta™, la tecnología NVIDIA Tensor Core trajo grandes aceleraciones a la IA, acortando el tiempo de entrenamiento de semanas a horas y proporcionando una aceleración masiva a la inferencia. La arquitectura NVIDIA Ampere se basa en estas innovaciones, brindando nueva precisión - Tensor Float (TF32) y coma flotante 64 (FP64) - para acelerar y simplificar la adopción de IA y extender el poder de los núcleos de tensores a HPC.
TF32 funciona igual que el FP32, ofreciendo aceleraciones de hasta 10 veces para IA sin requerir ningún cambio de código. Usando la precisión mixta automática de NVIDIA (NVIDIA Automatic Mixed Precision), los investigadores pueden lograr un rendimiento adicional de 2 veces con solo una línea de código adicional. Y con soporte para bfloat16, INT8 e INT4, los Tensor Cores en las GPU NVIDIA A100 Tensor Core crean un acelerador increíblemente versátil para el entrenamiento y la inferencia de IA. Al llevar la potencia de los núcleos tensoriales al HPC, el A100 también permite operaciones matriciales con total precisión FP64, certificado por IEEE.