Tensor Cores en NVIDIA Volta

La próxima generación de deep learning

La GPU NVIDIA® Tesla® V100 está equipada con NVIDIA Volta, una nueva y revolucionaria arquitectura de GPU. Sus multiprocesadores de streaming son un 50 % más eficientes energéticamente que la generación anterior de NVIDIA® PascalTM, lo que permite importantes mejoras en el rendimiento de precisión de coma flotante de 32 bits (FP32) y de 64 bits (FP64). ¿Y cuál es el gran avance? La introducción de Tensor Cores.

NVIDIA T4 Powered by Turing Tensor Cores

AVANCES EN RENDIMIENTO DE INFERENCIA


NVIDIA T4 potenciadas por Tensor Cores de Turing

Tesla T4 presenta la tecnología Tensor Core de NVIDIA Turing con computación de precisión múltiple para la inferencia de IA más eficiente del mundo. Tensor Cores de Turing proporcionan una gama completa de precisión para inferencia, desde FP32 a FP16 o INT8, además de INT4, para obtener incrementos considerables de rendimiento en relación con NVIDIA Pascal.

Eficiencia y rendimiento acelerados

Aprendizaje de deep learning en menos de un día de trabajo

Volta está equipada con 640 Tensor Core y cada uno realiza 64 operaciones de suma-multiplicación combinadas de coma flotante (FMA) por reloj. Este ofrece hasta 125 TFLOPS para aplicaciones de entrenamiento e inferencia. Esto implica que los desarrolladores pueden ejecutar entrenamientos de deep learning utilizando una precisión combinada de cálculos FP16 con acumulación FP32, consiguiendo así el triple de aceleración respecto a la generación anterior y llegar a los niveles de precisión esperados de la red. Este triple de aceleración del rendimiento es un avance vital para la tecnología Tensor Core. Ahora, el deep learning puede producirse en solo unas horas.

Rendimiento 47 veces mayor que un servidor de CPU en inferencia de deep learning

Respecto a la inferencia, Tesla V100 también consigue el triple de rendimiento frente a la generación anterior y es 47 veces más rápida que un servidor basado en CPU. Con TensorRT Programmable Inference Accelerator (acelerador de inferencia programable TensorRT) de NVIDIA, estas mejoras se deben en su mayoría al trabajo acelerado de inferencia de Tensor Core utilizando precisión combinada.

Una importante mejora en rendimiento computacional

Lee el informe técnico sobre Tensor Core y la arquitectura NVIDIA Volta.