Nouveaux records de performance dans MLPerf

Les solutions d’entraînement et d’inférence de NVIDIA enregistrent des records de performance dans MLPerf, l’outil de benchmarking incontournable pour les performances d’IA.

Qu’est-ce que MLPerf ?

MLPerf est un outil de benchmarking mis en œuvre par un consortium d’experts de l’IA, qui rassemble des organismes universitaires, des laboratoires de recherche et des groupes industriels, dont la mission consiste à "concevoir des benchmarks fiables et efficaces" pour obtenir des évaluations impartiales des performances d’entraînement et d’inférence relatives aux plateformes matérielles, aux solutions logicielles et aux différents services du marché, tout ceci dans des conditions réglementées. Pour rester à la pointe des dernières tendances de l’industrie, MLPerf évolue de manière ininterrompue en réalisant de nouveaux tests à intervalles réguliers et en intégrant de nouvelles charges de travail qui suivent les dernières évolutions de l’IA.

L’école polytechnique Chalmers, qui figure parmi les principaux établissements de recherche suédois, propose de multiples spécialisations allant de la nanotechnologie aux études climatiques. Alors que nous intégrons l’IA à nos programmes pour faire avancer nos projets de recherche, nous constatons que  le benchmark MLPerf permet de comparer de multiples plateformes d’IA d’une manière aussi transparente que précise, ce qui nous aide à évaluer les performances réelles pour des cas d’utilisation concrets.

— École polytechnique Chalmers, Suède

TSMC est à l’avant-garde de la production mondiale de semi-conducteurs, comme le prouve notre dernier nœud à 5 nm qui domine actuellement son segment du marché. Des innovations telles que la modélisation de gravure ou la lithographie reposant sur l’apprentissage automatique améliorent considérablement les techniques de correction optique de proximité (OPC) ainsi que la précision des simulations de gravure. Pour exploiter le plein potentiel de l’apprentissage automatique en matière d’entraînement et d’inférence de modèles, nous travaillons avec l’équipe d’ingénierie de NVIDIA pour adapter aux GPU notre moteur Maxwell de simulation et de lithographie inverse, de manière à bénéficier d’importants gains de performance. Le benchmark MLPerf joue un rôle très important dans notre processus de prise de décisions.

— Dr Danping Peng, Directeur des technologies d’OPC pour TSMC, San Jose (Californie), États-Unis

Les technologies d’imagerie et de vision par ordinateur figurent au cœur de nos recherches en IA, stimulent de nouvelles découvertes scientifiques et constituent les piliers d’une nouvelle génération de soins médicaux. Nous avons activement collaboré avec NVIDIA pour apporter des innovations telles que 3DUNet sur le marché de la Santé. Les benchmarks MLPerf, qui font autorité dans toute l’industrie, fournissent des données de performance pertinentes aux groupes informatiques et aux développeurs, ce qui les aide à mettre en œuvre la bonne solution pour accélérer des projets et des applications spécifiques.

— Professeur Dr Klaus Maier-Hein, Responsable de l’imagerie médicale au Centre allemand de recherche sur le cancer (DKFZ)

En tant que leader incontestable sur les marchés de la recherche et de la production industrielle, Samsung met à profit l’IA pour améliorer les performances et la productivité de manière significative. La mise en œuvre de ces avancées exige que nous disposions de la meilleure plateforme informatique possible. Le benchmark MLPerf rationalise notre processus de sélection en nous fournissant une méthode d’expertise ouverte et directe pour évaluer uniformément toutes les plateformes.

— Samsung Electronics

MLPerf - Catégories de soumission

Quatrième instanciation dédiée aux diverses solutions d’entraînement de l’industrie, MLPerf Training v1.0 nous a permis de distinguer huit différents types de charges de travail qui couvrent une grande variété de cas d’utilisation incluant la vision par ordinateur, le traitement automatique du langage naturel, les systèmes de recommandation et l’apprentissage par renforcement. 

MLPerf Inference v1.0 nous a servi à tester sept cas d’utilisation spécifiques avec sept types de réseaux de neurones (trois d’entre eux portaient sur la vision par ordinateur, le quatrième sur les systèmes de recommandation, deux autres sur le traitement automatique du langage naturel et le dernier sur l’imagerie médicale).

Classification d’images

Classification d’images

Assigne une étiquette à une image d’entrée à partir d’un ensemble prédéfini de catégories, dans différents champs d’application de la vision par ordinateur. En savoir plus.

Détection standard d’objets

Détection standard d’objets

Identifie des instances d’objets concrets comme des visages, des vélos ou des bâtiments à partir d’images ou de vidéos d’entrée, puis leur assigne des volumes englobants. En savoir plus.

Détection avancée d’objets

Détection avancée d’objets

Détecte des objets d’intérêt spécifiques au sein d’une image et leur attribue un masque de pixels. En savoir plus.

Segmentation d’images biomédicales

Segmentation d’images biomédicales

Effectue une segmentation volumétrique d’images 3D denses pour des cas d’utilisation liés à la médecine. En savoir plus.

Traduction (réseaux récurrents)

Traduction (réseaux récurrents)

Traduit un texte d’une langue à une autre via un réseau de neurones récurrents (RNN). En savoir plus.

Traduction (réseaux non récurrents)

Traduction (réseaux non récurrents)

Traduit un texte d’une langue à une autre via un réseau de neurones Feed-Forward. En savoir plus.

Reconnaissance vocale

Reconnaissance vocale

Reconnaît et convertit le flux audio en temps réel. En savoir plus.

Traitement automatique du langage naturel (NLP)

Traitement automatique du langage naturel (NLP)

Analyse du contenu textuel en exploitant la relation entre différents mots au sein d’un bloc de texte. Autorise des modèles de réponse aux questions ou des modèles de paraphrase avec de nombreux autres cas d’utilisation liés à la linguistique. En savoir plus.

Systèmes de recommandation

Systèmes de recommandation

Fournit des résultats personnalisés pour les services informatiques dédiés aux utilisateurs finaux, tels que les réseaux sociaux ou les sites de commerce électronique, en analysant les interactions entre les utilisateurs et les éléments de service comme les produits ou les publicités. En savoir plus.

Apprentissage par renforcement

Apprentissage par renforcement

Évalue différentes actions possibles pour maximiser une récompense quantitative en utilisant un système dérivé du jeu de Go sur une grille de 19x19. En savoir plus.

NVIDIA avec MLPerf : résultats de benchmark

  • Entraînement

    Entraînement

  • Inférence

    Inférence

Le GPU NVIDIA A100 Tensor Core et le système NVIDIA DGX SuperPOD nous ont permis d’enregistrer 16 records de performance pour l’entraînement, que ce soit avec des charges de travail sur processeur dédié ou avec des charges de travail à l’échelle sur des systèmes commerciaux. Ces performances sans précédent résultent d’une intégration minutieuse de matériels, de logiciels et de technologies au niveau du système. L’investissement continu de NVIDIA en matière de performance a permis d’améliorer le rendement avec nos quatre soumissions MLPerf.

MLPERF : JUSQU’À 6,5 FOIS PLUS DE PERFORMANCES EN 2,5 ANS

L’engagement de NVIDIA pour l’innovation apporte des améliorations en continu

MLPERF : JUSQU’À 6,5 FOIS PLUS DE PERFORMANCES EN 2,5 ANS

NVIDIA A ÉTABLI 16 RECORDS DE PERFORMANCE

Pour des solutions commerciales

La plateforme d’IA de NVIDIA a enregistré 8 records d’accélération en ayant recours à des GPU NVIDIA A100 dans des serveurs OEM ainsi qu’à des systèmes NVIDIA DGX. Cela démontre toute la puissance de la pile matérielle et logicielle de bout en bout de NVIDIA qui permet aux leaders de l’industrie d’obtenir des résultats MLPerf révolutionnaires.

  Records de mise à niveau (min) Records d’accélération (min)
Systèmes de recommandation (DLRM) 0,99 (DGX SuperPOD) 15,3 (A100)
Traitement automatique du langage naturel (BERT) 0,32 (DGX SuperPOD) 169,2 (A100)
Reconnaissance vocale sur réseaux récurrents (RNN-T) 2,75 (DGX SuperPOD) 309,6 (A100)
Détection d’objets lourds (Mask R-CNN) 3,95 (DGX SuperPOD) 400,2 (A100)
Détection d’objets légers (SSD) 0,48 (DGX SuperPOD) 66,5 (A100)
Classification d’images (ResNet-50 v1.5) 0,4 (DGX SuperPOD) 219 (A100)
Segmentation d’images (3D-Unet) 3 (DGX SuperPOD) 229,1 (A100)
Apprentissage par renforcement (MiniGo) 15,53 (DGX SuperPOD) 2156,3 (A100)

NVIDIA a enregistré des records de performance dans tous les scénarios (serveur ou hors ligne pour Data Center et monoflux, multi-flux ou hors ligne à l'Edge). Nous fournissons par ailleurs les meilleures performances par accélérateur du marché pour tous les produits testés avec l’intégralité de nos tests. Ces résultats constituent une preuve du leadership de NVIDIA relatif aux performances d’inférence, mais aussi de la polyvalence incomparable de notre plateforme d’inférence.

Scénario hors ligne de serveur sur Data Center ou à l’Edge (GPU unique)

  NVIDIA A100 (CPU x86)
(inférences/seconde)
NVIDIA A100 (CPU Arm)
(inférences/seconde)
NVIDIA A30
(inférences/seconde)
NVIDIA® Jetson Xavier
(nombre maximal d’inférences/requête)
DLRM
(Recommandations)
302 680 274 433 135 450 N/A*
BERT
(Traitement automatique du langage naturel)
3538 3151 1673 97
ResNet-50 v1.5
(Classification d’images)
39 190 36 436 18 647 2039
ResNet-34
(Détection Single-Shot d’objets lourds)
981 901 474 55
RNN-T
(Reconnaissance vocale)
13 365 12 640 6574 416
3D U-Net
(Imagerie médicale)
61 57 30 3

La technologie à l’œuvre derrière les résultats

La complexité grandissante des nouvelles demandes de l’IA requiert une intégration étroite entre tous les aspects de la plateforme. Comme nous l’avons démontré avec les résultats de benchmark de MLPerf, la plateforme d’IA de NVIDIA offre des performances record avec le GPU le plus avancé au monde, des technologies d’interconnexion puissantes et évolutives ainsi que des logiciels de pointe, qui forment une solution avancée de bout en bout aux résultats exceptionnels pouvant être déployée sur Data Center, dans le Cloud ou à l’Edge.

Environnement logiciel optimisé pour l’accélération des workflows d’IA

Environnement logiciel optimisé pour l’accélération des workflows d’IA

Composant essentiel de la plateforme de NVIDIA et facteur déterminant dans l’obtention de records de performance sans précédent sous MLPerf, NGC est un outil d’IA, de HPC et d’analyse de données optimisé par GPU qui simplifie et accélère les workflows de bout en bout. Incluant plus de 150 conteneurs de niveau entreprise (pour des workflows allant de l’IA conversationnelle aux systèmes de recommandation, plus de 100 modèles uniques et des kits de développement logiciel spécifiques qui peuvent être déployés sur site, dans le Cloud ou sur l’Edge, NGC permet aux data scientists, aux chercheurs et aux développeurs de concevoir des solutions de pointe, de collecter des données cruciales et de créer de la valeur ajoutée plus rapidement que jamais.

Infrastructure d’IA à haut niveau de leadership

L’obtention de résultats probants pour l’entraînement et l’inférence requiert une infrastructure spécifiquement conçue pour répondre aux défis les plus complexes au monde en matière d’IA. La plateforme d’IA de NVIDIA offre des records de performance grâce à la puissance phénoménale du GPU NVIDIA A100 Tensor Core, du GPU NVIDIA A30 Tensor Core et du GPU NVIDIA A10 Tensor Core ainsi qu’à l’évolutivité et la polyvalence sans précédent des technologies d’interconnexion NVIDIA NVLink® et NVIDIA NVSwitch, sans compter l’apport indéniable de la solution NVIDIA ConnectX®-6 VPI. Ces innovations technologiques figurent au cœur du système NVIDIA DGX A100, moteur fondamental de ces performances historiques.

Les systèmes NVIDIA DGX offrent une évolutivité élevée, un déploiement rapide et une puissance de calcul exceptionnelle qui permettent à toutes les entreprises de concevoir des infrastructures d’IA à la pointe de la technologie.

Infrastructure d’IA à haut niveau de leadership

Obtenez plus d’informations sur les performances d’entraînement et d’inférence de notre système pour Data Center.