Benchmarks MLPerf

La plateforme d’IA de NVIDIA enregistre des records d’entraînement et d’inférence dans MLPerf, soulignant ainsi sa polyvalence exceptionnelle et sa capacité à traiter les charges de travail d’IA les plus exigeantes.

Qu’est-ce que MLPerf ?

MLPerf est un outil de benchmarking mis en œuvre par un consortium d’experts de l’IA, qui rassemble des organismes universitaires, des laboratoires de recherche et des groupes industriels, dont la mission consiste à "concevoir des benchmarks fiables et efficaces" pour obtenir des évaluations impartiales des performances d’entraînement et d’inférence relatives aux plateformes matérielles, aux solutions logicielles et aux différents services du marché, tout ceci dans des conditions réglementées. Pour rester à la pointe des dernières tendances de l’industrie, MLPerf évolue de manière ininterrompue en réalisant de nouveaux tests à intervalles réguliers et en intégrant de nouvelles charges de travail qui suivent les dernières évolutions de l’IA.

L’école polytechnique Chalmers, qui figure parmi les principaux établissements de recherche suédois, propose de multiples spécialisations allant de la nanotechnologie aux études climatiques. Alors que nous intégrons l’IA à nos programmes pour faire avancer nos projets de recherche, nous constatons que  le benchmark MLPerf permet de comparer de multiples plateformes d’IA d’une manière aussi transparente que précise, ce qui nous aide à évaluer les performances réelles pour des cas d’utilisation concrets.

— École polytechnique Chalmers, Suède

TSMC est à l’avant-garde de la production mondiale de semi-conducteurs, comme le prouve notre dernier nœud à 5 nm qui domine actuellement son segment du marché. Des innovations telles que la modélisation de gravure ou la lithographie reposant sur l’apprentissage automatique améliorent considérablement les techniques de correction optique de proximité (OPC) ainsi que la précision des simulations de gravure. Pour exploiter le plein potentiel de l’apprentissage automatique en matière d’entraînement et d’inférence de modèles, nous travaillons avec l’équipe d’ingénierie de NVIDIA pour adapter aux GPU notre moteur Maxwell de simulation et de lithographie inverse, de manière à bénéficier d’importants gains de performance. Le benchmark MLPerf joue un rôle très important dans notre processus de prise de décisions.

— Dr Danping Peng, Directeur des technologies d’OPC pour TSMC, San Jose (Californie), États-Unis

Les technologies d’imagerie et de vision par ordinateur figurent au cœur de nos recherches en IA, stimulent de nouvelles découvertes scientifiques et constituent les piliers d’une nouvelle génération de soins médicaux. Nous avons activement collaboré avec NVIDIA pour apporter des innovations telles que 3DUNet sur le marché de la Santé. Les benchmarks MLPerf, qui font autorité dans toute l’industrie, fournissent des données de performance pertinentes aux groupes informatiques et aux développeurs, ce qui les aide à mettre en œuvre la bonne solution pour accélérer des projets et des applications spécifiques.

— Professeur Dr Klaus Maier-Hein, Responsable de l’imagerie médicale au Centre allemand de recherche sur le cancer (DKFZ)

En tant que leader incontestable sur les marchés de la recherche et de la production industrielle, Samsung met à profit l’IA pour améliorer les performances et la productivité de manière significative. La mise en œuvre de ces avancées exige que nous disposions de la meilleure plateforme informatique possible. Le benchmark MLPerf rationalise notre processus de sélection en nous fournissant une méthode d’expertise ouverte et directe pour évaluer uniformément toutes les plateformes.

— Samsung Electronics

MLPerf - Catégories de soumission

Sixième instanciation dédiée aux diverses solutions d’entraînement de l’industrie, MLPerf Training v2.0 nous a permis de distinguer huit différents types de charges de travail qui couvrent une grande variété de cas d’utilisation incluant la vision par ordinateur, le traitement automatique du langage naturel, les systèmes de recommandation et l’apprentissage par renforcement.

MLPerf Inference v2.0 nous a servi à tester sept cas d’utilisation spécifiques avec sept types de réseaux de neurones (trois d’entre eux portaient sur la vision par ordinateur, le quatrième sur les systèmes de recommandation, deux autres sur le traitement automatique du langage naturel et le dernier sur l’imagerie médicale).

Classification d’images

Classification d’images

Assigne une étiquette à une image d’entrée à partir d’un ensemble prédéfini de catégories, dans différents champs d’application de la vision par ordinateur. En savoir plus.

Détection standard d’objets

Détection standard d’objets

Identifie des instances d’objets concrets comme des visages, des vélos ou des bâtiments à partir d’images ou de vidéos d’entrée, puis leur assigne des volumes englobants. En savoir plus.

Détection avancée d’objets

Détection avancée d’objets

Détecte des objets d’intérêt spécifiques au sein d’une image et leur attribue un masque de pixels. En savoir plus.

Segmentation d’images biomédicales

Segmentation d’images biomédicales

Effectue une segmentation volumétrique d’images 3D denses pour des cas d’utilisation liés à la médecine. En savoir plus.

Traduction (réseaux récurrents)

Traduction (réseaux récurrents)

Traduit un texte d’une langue à une autre via un réseau de neurones récurrents (RNN). En savoir plus.

Reconnaissance vocale

Reconnaissance vocale

Reconnaît et convertit le flux audio en temps réel. En savoir plus.

Traitement automatique du langage naturel (NLP)

Traitement automatique du langage naturel (NLP)

Analyse du contenu textuel en exploitant la relation entre différents mots au sein d’un bloc de texte. Autorise des modèles de réponse aux questions ou des modèles de paraphrase avec de nombreux autres cas d’utilisation liés à la linguistique. En savoir plus.

Systèmes de recommandation

Systèmes de recommandation

Fournit des résultats personnalisés pour les services informatiques dédiés aux utilisateurs finaux, tels que les réseaux sociaux ou les sites de commerce électronique, en analysant les interactions entre les utilisateurs et les éléments de service comme les produits ou les publicités. En savoir plus.

Apprentissage par renforcement

Apprentissage par renforcement

Évalue différentes actions possibles pour maximiser une récompense quantitative en utilisant un système dérivé du jeu de Go sur une grille de 19x19. En savoir plus.

NVIDIA avec MLPerf : résultats de benchmark

  • Entraînement

    Entraînement

  • Inférence

    Inférence

Le GPU NVIDIA A100 Tensor Core et le système NVIDIA DGX SuperPOD nous ont permis d’enregistrer des records de performance dans tous les tests MLPerf, que ce soit avec des charges de travail sur processeur dédié ou avec des charges de travail à l’échelle. Ces performances sans précédent résultent d’une intégration minutieuse de matériels, de logiciels et de technologies au niveau du système. L’investissement continu de NVIDIA vis-à-vis de l’ensemble de la pile logicielle a permis d’améliorer les performances avec chaque soumission MLPerf. La plateforme de NVIDIA, qui excelle à la fois en termes de performance et d’ergonomie, fournit une solution unique pour l’entraînement et l’inférence, accessible n’importe où du Data Center à l’Edge en passant par le Cloud.

Jusqu’à 20 fois plus de performances en 3 ans

L’engagement de NVIDIA pour l’innovation apporte des améliorations en continu

Performances enregistrées dans MLPerf pour l’entraînement des modèles d’IA

La plateforme d’IA de NVIDIA se distingue par une polyvalence exceptionnelle et des performances de pointe

Pour des solutions commerciales

La plateforme d’IA de NVIDIA a enregistré des records de performance dans nos tests réalisés sous MLPerf. C’est la seule plateforme à avoir excellé dans l’intégralité des benchmarks. Cela met en exergue les performances incomparables et la polyvalence élevée de la plateforme d’IA Full-Stack de NVIDIA pour toutes les charges de travail.

BENCHMARK Records de mise à niveau (min) Records d’accélération (min)
Systèmes de recommandation (DLRM) 0,59 (DGX SuperPOD) 12,78 (A100)
Traitement automatique du langage naturel (BERT) 0,21 (DGX SuperPOD) 126,95 (A100)
Reconnaissance vocale sur réseaux récurrents (RNN-T) 2,15 (DGX SuperPOD) 230,07 (A100)
Détection d’objets lourds (Mask R-CNN) 3,09 (DGX SuperPOD) 327,34 (A100)
Détection d’objets légers (RetinaNet) 4,25 (DGX SuperPOD) 675,18 (A100)
Classification d’images (ResNet-50 v1.5) 0,32 (DGX SuperPOD) 217,82 (A100)
Segmentation d’images (3D-Unet) 1,22 (DGX SuperPOD) 170,23 (A100)
Apprentissage par renforcement (MiniGo) 16,23 (DGX SuperPOD) 2045,4 (A100)

NVIDIA a enregistré des records de performance dans tous les scénarios (serveur ou hors ligne pour Data Center et monoflux, multi-flux ou hors ligne à l'Edge). Nous fournissons par ailleurs les meilleures performances par accélérateur du marché pour tous les produits testés avec l’intégralité de nos tests. Ces résultats constituent une preuve du leadership de NVIDIA relatif aux performances d’inférence, mais aussi de la polyvalence incomparable de notre plateforme d’inférence.

Scénario hors ligne de serveur sur Data Center ou à l’Edge (GPU unique)

  NVIDIA A100 (CPU x86)
(inférences/seconde)
NVIDIA A100 (CPU Arm)
(inférences/seconde)
NVIDIA A30
(inférences/seconde)
NVIDIA® Jetson AGX Orin
(nombre maximal d’inférences/requête)
DLRM
(Recommandations)
312 380 281 283 138 194 N/A*
BERT
(Traitement automatique du langage naturel)
3490 3149 1668 476
ResNet-50 v1.5
(Classification d’images)
39 190 36 487 18 406 6139
ResNet-34
(Détection Single-Shot d’objets lourds)
990 906 478 208
RNN-T
(Reconnaissance vocale)
13 344 13 188 6557 1110
3D U-Net
(Imagerie médicale)
3 3 2 0,5

La technologie à l’œuvre derrière les résultats

La complexité grandissante des nouvelles demandes de l’IA requiert une intégration étroite entre tous les aspects de la plateforme. Comme nous l’avons démontré avec les résultats de benchmark de MLPerf, la plateforme d’IA de NVIDIA offre des performances record avec le GPU le plus avancé au monde, des technologies d’interconnexion puissantes et évolutives ainsi que des logiciels de pointe, qui forment une solution avancée de bout en bout aux résultats exceptionnels pouvant être déployée sur Data Center, dans le Cloud ou sur l’Edge.

Modèles pré-entraînés et logiciels optimisés disponibles via NVIDIA NGC

Environnement logiciel optimisé pour l’accélération des workflows d’IA

Composant essentiel de la plateforme de NVIDIA et facteur déterminant dans l’obtention de records de performance sans précédent sous MLPerf, le catalogue NGC est un outil d’IA, de HPC et d’analyse de données optimisé par GPU qui simplifie et accélère les workflows de bout en bout. Incluant plus de 150 conteneurs de niveau entreprise (pour des charges de travail allant de l’IA conversationnelle aux systèmes de recommandation avec plus de 100 modèles uniques et des kits de développement logiciel spécifiques qui peuvent être déployés sur site, dans le Cloud ou sur l’Edge), NGC permet aux data scientists, aux chercheurs et aux développeurs de concevoir des solutions de pointe, de collecter des données cruciales et de créer de la valeur ajoutée plus rapidement que jamais.

Infrastructure d’IA à haut niveau de leadership

L’obtention de résultats probants pour l’entraînement et l’inférence requiert une infrastructure spécifiquement conçue pour répondre aux défis les plus complexes au monde en matière d’IA. La plateforme d’IA de NVIDIA offre des records de performance grâce à la puissance phénoménale du GPU NVIDIA A100 Tensor Core, du GPU NVIDIA A30 Tensor Core, du GPU NVIDIA A2 Tensor Core et du module Jetson AGX Orin ainsi qu’à l’évolutivité et la polyvalence sans précédent des technologies d’interconnexion NVIDIA NVLink® et NVIDIA NVSwitch, sans compter l’apport indéniable de la solution NVIDIA ConnectX®-6 VPI. Ces innovations technologiques figurent au cœur du système NVIDIA DGX™ A100, moteur fondamental de ces performances historiques.

Les systèmes NVIDIA DGX offrent une évolutivité élevée, un déploiement rapide et une puissance de calcul exceptionnelle qui permettent à toutes les entreprises de concevoir des infrastructures d’IA à la pointe de la technologie.

GPU NVIDIA Tensor Core

Obtenez plus d’informations sur les performances d’entraînement et d’inférence de notre système pour Data Center.