Introducido por primera vez en la arquitectura NVIDIA Volta™, la tecnología NVIDIA Tensor Core ha traído velocidades espectaculares a la IA, reduciendo los tiempos de entrenamiento de semanas a horas y proporcionando una aceleración masiva a la inferencia. La arquitectura NVIDIA Ampere se basa en estas innovaciones al aportar nuevas precisiones (Tensor Float (TF32) y coma flotante FP64) para acelerar y simplificar la adopción de IA y ampliar la potencia de Tensor Cores a HPC.
TF32 funciona igual que FP32 mientras entrega velocidades hasta 10 veces superiores para la IA sin necesidad de ningún cambio de código. Usando Precisión combinada y automática de NVIDIA, los investigadores pueden obtener un rendimiento 2 veces mayor con una sola línea de código adicional. Y con soporte para bfloat16, INT8 e INT4, Tensor Cores en NVIDIA A100 crea un acelerador increíblemente versátil para ambos Entrenamiento de IA e inferencia. Al traer la potencia de Tensor Cores a HPC, A100 también permite operaciones de matriz con una precisión FP64 completa y certificada por IEEE.