Les modèles d’IA gagnent en complexité alors que surgissent de nouveaux défis tels que la conception d’applications d’IA conversationnelle plus précises ou le développement de systèmes de recommandation plus évolués. Leur entraînement requiert une puissance de calcul massive ainsi qu’une importante évolutivité.
Les cœurs Tensor de troisième génération des GPU A100 ainsi que leurs capacités de calcul de niveau TF32 (Tensor Float 32) vous offrent, sans changement du code-source, des performances jusqu’à 10 fois plus rapides par rapport aux GPU de génération précédente et un rendement doublé grâce à la technologie NVIDIA de précision mixte automatique. Mais ce n’est pas tout : l’association de la technologie NVIDIA® NVLink® de troisième génération, de NVIDIA NVSwitch™, de la norme PCI Gen4, de Mellanox InfiniBand et du kit de développement logiciel NVIDIA Magnum IO™ vous permet d’interconnecter plusieurs milliers de GPU A100 pour bénéficier d’une puissance de calcul phénoménale. Cela signifie que de grands modèles d’IA comme BERT peuvent être entraînés en seulement xx minutes sur un cluster composé de xx GPU A100, vous offrant ainsi des performances et une évolutivité sans précédent.
NVIDIA a démontré son leadership en enregistrant des performances record dans MLPerf 0.6, , le premier benchmark d’IA pour l’entraînement à faire autorité dans toute l’industrie.