La complejidad de los modelos de IA se dispara a medida que estos se enfrentan a desafíos de nivel superior, como una IA conversacional precisa y sistemas de recomendación profundos. Entrenarlos requiere una enorme potencia de computación y escalabilidad.
La tercera generación de Tensor Cores de NVIDIA A100 con la precisión Tensor Float (TF32) proporciona un rendimiento hasta 10 veces mayor que el de la generación anterior, sin cambios de código, y un impulso adicional duplicado con precisión mixta automática. Cuando se combina con NVIDIA® NVLink® de tercera generación, NVIDIA NVSwitch™, PCI Gen4, Mellanox InfiniBand y el SDK de software NVIDIA Magnum IO™, es posible escalar a miles de GPU A100. Esto significa que los grandes modelos de IA como BERT pueden entrenarse en solo xx minutos en un clúster de xx A100, lo que ofrece rendimiento y escalabilidad sin precedentes.
El liderazgo en el entrenamiento de NVIDIA se demostró en MLPerf 0.6, el primer banco de pruebas de todo el sector para el entrenamiento de IA.