Модели ИИ становятся все более сложными, так как предназначены для таких задач, как разговорный ИИ и рекомендательные системы на базе алгоритмов глубокого обучения. Для их тренировки необходима значительная вычислительная мощность и масштабируемость.
Третье поколение Tensor Coresтензорных ядер в NVIDIA A100 с поддержкой Tensor Float (TF32) повышают производительность в 10 раз по сравнению с предыдущими решениями, не требуя изменений в коде, и в 2 раза ускоряют автоматическую функцию работы с различной точностью. При объединении с NVIDIA ® NVLink® третьего поколения, NVIDIA NVSwitch™, PCI Gen4, Mellanox InfiniBand и SDK NVIDIA Magnum IO™ ускоритель A100 можно масштабировать в тысячи раз. Это означает, что большие модели ИИ например BERT, можно обучить всего за XX минут на кластере из XX ускорителей A100, обеспечивающих непревзойденную производительность и масштабируемость.
Свое лидерство NVIDIA продемонстрировала в MLPerf 0.6, первом отраслевом бенчмарке для обучения алгоритмов ИИ.