Benchmark MLPerf

La piattaforma NVIDIA AI dimostra prestazioni straordinarie e versatilità nei benchmark MLPerf per training, inferenza e HPC per i carichi di lavoro IA più esigenti e realistici.

Cos'è MLPerf?

I benchmark MLPerf™, sviluppati da MLCommons, consorzio di leader in IA provenienti dalle università, dai laboratori di ricerca e da diversi settori industriali, sono pensati per fornire valutazioni imparziali sulle prestazioni di inferenza e training di hardware, software e servizi. Tutti i benchmark vengono condotti seguendo condizioni prestabilite. Per rimanere all'avanguardia nelle tendenze del settore, MLPerf continua a evolversi, tenendo nuovi test a intervalli regolari e aggiungendo nuovi carichi di lavoro che rappresentano lo stato dell'arte nell'IA.

L'Università Chalmers è uno dei principali istituti di ricerca in Svezia, specializzata in molteplici aree, dalla nanotecnologia agli studi sul clima. Man mano che integriamo l'intelligenza artificiale per alimentare le nostre iniziative di ricerca, scopriamo che il benchmark  MLPerf fornisce un confronto trasparente tra elementi analoghi su più piattaforme IA per dimostrare le prestazioni effettive in diversi scenari di utilizzo reali.

— Politecnico di Chalmers, Svezia

TSMC è all'avanguardia nella produzione globale di semiconduttori, come l'ultimo nodo da 5 nm che guida il mercato della tecnologia di processo. Innovazioni come la litografia basata sul machine learning e la modellazione delle incisioni migliorano notevolmente la correzione ottica di prossimità (OPC) e l'accuratezza della simulazione. Per realizzare appieno il potenziale del machine learning nel formazione e nell'inferenza dei modelli, collaboriamo con il team di ingegneri NVIDIA per utilizzare il motore di simulazione Maxwell e la tecnologia di litografia inversa (ILT) sulle GPU e per un'accelerazione significativa. Il benchmark MLPerf è un fattore importante nel nostro processo decisionale.

— Dr. Danping Peng, Director, OPC Department, TSMC, San Jose, CA, USA

La computer vision e l'imaging sono al centro della ricerca IA che alimenta le scoperte scientifiche per una rappresentazione tempestiva dei componenti essenziali dell'assistenza medica. Abbiamo lavorato a stretto contatto con NVIDIA per portare innovazioni come 3DUNet nel mercato sanitario. I benchmark MLPerf standard del settore forniscono dati pertinenti sulle prestazioni utili a organizzazioni IT e sviluppatori per creare la soluzione adatta ad accelerare progetti e applicazioni specifici.

— Prof. Dr. Klaus Maier-Hein (direttore del Medical Image Computing, Deutsches Krebsforschungszentrum (DKFZ, centro di ricerca tedesco contro il cancro)

Come leader affermato nella ricerca e nella produzione, Samsung utilizza l'intelligenza artificiale per aumentare drasticamente le prestazioni dei prodotti e la produttività. La concretizzazione di questi vantaggi dell'intelligenza artificiale impone di avere la migliore piattaforma di calcolo disponibile. Il benchmark MLPerf semplifica il nostro processo di selezione fornendoci un metodo di valutazione aperto e diretto per un confronto uniforme tra le piattaforme.

— Samsung Electronics

Uno sguardo approfondito ai benchmark MLPerf

MLPerf Training v3.1 misura i tempi di training di modelli in nove diversi casi d'uso, tra cui modelli linguistici di grandi dimensioni (LLM), generazione di immagini, computer vision, segmentazione di immagini mediche, riconoscimento vocale e generazione di consigli.

MLPerf Inference v3.1 testa le prestazioni di inferenza utilizzando sette diversi tipi di reti neurali, tra cui LLM, elaborazione del linguaggio naturale, computer vision e segmentazione di immagini mediche.

MLPerf HPC v3.0 testa quattro diversi casi d'uso di calcolo scientifico, tra cui l'identificazione climatica e atmosferica dei fiumi, la previsione dei parametri cosmologici, la modellazione molecolare quantistica e la previsione della struttura proteica.

Large Language Model (LLM)

Modelli linguistici di grandi dimensioni

Algoritmi di deep learning addestrati su set di dati su larga scala in grado di riconoscere, riepilogare, tradurre, prevedere e generare contenuti per una vasta gamma di casi d'uso.Dettagli.

Text-to-Image

Text-to-Image: conversione da testo a immagine

Genera immagini da richieste in formato testuale.Dettagli.

Recommendation

Consigli

Offre risultati personalizzati nei servizi rivolti agli utenti, come social media o siti di e-commerce, apprendendo le interazioni tra utenti e servizi, come prodotti o annunci. Dettagli.

Object Detection (Lightweight)

Rilevamento di oggetti (leggero)

Rileva istanze di oggetti del mondo reale come visi, biciclette ed edifici all'interno di immagini o video e delinea una bounding box attorno a ciascuno. Dettagli.

Object Detection (Heavyweight)

Rilevamento di oggetti (pesante)

Rileva distinti oggetti d'interesse che vengono visualizzati in un immagine e calcola una maschera di pixel per ognuno. Dettagli.

Image Classification

Classificazione di immagini

Assegna un'etichetta proveniente da una serie fissa di categorie a un immagine acquisita, es. riguarda i problemi di visione del computer. Dettagli.

Natural Language Processing (NLP)

Elaborazione del linguaggio naturale (NLP)

Comprende il testo usando la relazione tra parole diverse in un blocco di testo. Consente la risposta alle domande, la parafrasi delle frasi e molti altri casi d'uso correlati alla lingua. Dettagli.

Automatic Speech Recognition (ASR)

Riconoscimento vocale automatico (ASR)

Riconoscimento e trascrizione dell'audio in tempo reale. Dettagli.

Biomedical Image Segmentation

Segmentazione delle immagini biomediche

Esegue la segmentazione volumetrica di immagini 3D dense per casi d'uso medici. Dettagli.

Climate Atmospheric River Identification Category

Identificazione climatica atmosferica dei fiumi

Rilevamento di uragani e fiumi atmosferici nei dati delle simulazioni climatiche. Dettagli.

Cosmology Parameter Prediction Category

Previsione dei parametri cosmologici

Risoluzione di problemi di regressione di immagini 3D su dati cosmologici. Dettagli.

Quantum Molecular Modeling Category

Modellazione molecolare quantistica

Previsione di energie o configurazioni molecolari. Dettagli.

Protein Structure Prediction

Previsione della struttura proteica

Previsione della struttura proteica tridimensionale in base alla connettività unidimensionale degli aminoacidi. Dettagli.

I risultati di NVIDIA nel benchmark MLPerf

  • Training

    Training

  • Inferenza

    Inferenza

  • HPC

    HPC

La piattaforma di computing accelerato NVIDIA, basata su GPU NVIDIA H100 Tensor Core e networking NVIDIA Quantum-2 InfiniBand, ha superato record di prestazioni di training in LLM in MLPerf Training v3.1, alimentando due progetti di dimensioni senza precedenti con 10.752 GPU H100 con efficienza scalabile quasi lineare nel benchmark GPT-3 175B. Inoltre, con il nuovo test text-to-image basato su Stable Diffusion, la piattaforma NVIDIA definisce lo standard, offrendo le massime prestazioni e scalabilità senza pari. Con una progettazione incessante e completa a livello di data center, NVIDIA continua ad accelerare le prestazioni di training con IA alla velocità della luce.

NVIDIA stabilisce un nuovo record per il training di modelli linguistici con il più grande contenuto MLPerf di sempre

NVIDIA Sets a New Large Language Model Training Record With Largest MLPerf Submission Ever
Benchmark Per-Accelerator Records
(NVIDIA H100 Tensor Core GPU)
Large Language Model (GPT-3 175B) 548 hours (23 days)
Natural Language Processing (BERT) 0.71 hours
Recommendation (DLRM-DCNv2) 0.56 hours
Speech Recognition (RNN-T) 2.2 hours
Image Classification (ResNet-50 v1.5) 1.8 hours
Object Detection, Heavyweight (Mask R-CNN) 2.6 hours
Object Detection, Lightweight (RetinaNet) 4.9 hours
Image Segmentation (3D U-Net) 1.6 hours

La piattaforma NVIDIA AI raggiunge le massime prestazioni in ogni test su MLPerf Training

Oltre a prestazioni rivoluzionarie su larga scala con modelli linguistici di grandi dimensioni all'avanguardia e test text-to-image, NVIDIA ha anche raggiunto nuovi record di prestazioni per carichi di lavoro recommender, rilevamento di oggetti, segmentazione di immagini diagnostiche ed elaborazione del linguaggio naturale in MLPerf Training v3. 1. Con le GPU NVIDIA H100 e NVIDIA Quantum-2, la piattaforma NVIDIA continua a offrire tempi di training più rapidi su ogni benchmark, dimostrando le sue prestazioni e la sua versatilità senza pari per gestire l'intera gamma di carichi di lavoro IA.

Massima scalabilità delle prestazioni

Benchmark Tempi di training
GPT-3 3,92 minuti
Stable Diffusion v2 2.47 minuti
DLRM-DCNv2 1.0 minuti
BERT-large 0.12 minuti
ResNet-50 v1.5 0.18 minuti
Mask R-CNN 1.5 minuti
RetinaNet 0.92 minuti
3D U-Net 0.77 minuti
RNN-T 1.7 minuti

La GPU NVIDIA H100 Tensor Core alimenta i sistemi con il throughput più elevato in ogni carico di lavoro e scenario MLPerf Inference v3.1 per data center. Al suo debutto al MLPerf, NVIDIA GH200 Grace Hopper™  Superchip ha eseguito tutti i carichi di lavoro e ampliato le prestazioni già eccezionali di H100. Anche la GPU NVIDIA L4 Tensor Core, ottimizzata per essere l'acceleratore NVIDIA più efficiente per i server mainstream, ha ottenuto ottimi risultati su tutta la linea. Per le applicazioni di IA Edge e robotica a efficienza energetica, NVIDIA Jetson AGX Orin™ e Jetson Orin NX hanno continuato a dimostrare straordinarie capacità di inferenza system-on-module.

Scenario offline per data center e sistemi periferici (GPU singola)

NVIDIA GH200 Grace Hopper Superchip (inferenze/secondo) NVIDIA H100 (inferenze/secondo) NVIDIA L4 (inferenze/secondo) NVIDIA Jetson AGX Orin (max inferenze/query) NVIDIA Jetson Orin NX (max inferenze/query)
GPT-J (modelli linguistici di grandi dimensioni) 13.34 13.29 1.30 N/D N/D
DLRMv2 (recommender) 49,002 42,856 3,673 N/D* N/D*
BERT (elaborazione del linguaggio naturale)** 8,646 7,878 631 554 195
ResNet-50 v1.5 (classificazione di immagini) 93,198 88,526 12,882 6,424 2,641
RetinaNet (rilevamento di oggetti) 1,849 1,761 226 149 67
RNN-T (riconoscimento vocale) 25,975 23,307 3,899 1,170 432
3D U-Net (diagnostica per immagini) 6.8 6.5 1.07 0.51 0.20

NVIDIA H100 Tensor Core ha potenziato la piattaforma NVIDIA per HPC e IA al suo debutto al MLPerf HPC v3.0, aumentando le prestazioni fino a 2 volte e garantendo le massime prestazioni su tutti i carichi di lavoro in termini di tempi di training e throughput. La piattaforma NVIDIA è stata anche l'unica a inviare risultati per ogni carico di lavoro MLPerf HPC, che include la segmentazione climatica, la previsione dei parametri cosmologici, la modellazione molecolare quantistica e l'ultima novità, la previsione della struttura proteica. Le prestazioni e la versatilità senza pari della piattaforma NVIDIA la rendono lo strumento ideale per alimentare la nuova ondata di scoperte scientifiche basate su IA.

Prestazioni fino a 16 volte superiori in 3 anni

L'innovazione full-stack di NVIDIA alimenta miglioramenti delle prestazioni

Up to 16X More Performance in 3 Years
Up to 16X More Performance in 3 Years

La tecnologia dietro ai risultati

La complessità dell'IA richiede una stretta integrazione di tutti gli aspetti della piattaforma. Come dimostrato dai benchmark MLPerf, la piattaforma NVIDIA AI offre prestazioni di leadership con la GPU più avanzata al mondo, tecnologie di interconnessione potenti e scalabili e software all'avanguardia, una soluzione end-to-end che può essere installata nel data center, nel cloud o sui sistemi periferici con risultati incredibili.

Modelli pre-addestrati e software ottimizzato di NVIDIA NGC

Software ottimizzato che accelera i flussi di lavoro IA

Fattore essenziale dei risultati di training e inferenze MLPerf e della piattaforma NVIDIA, il catalogo NGC è un hub ottimizzato da GPU per software IA, HPC e analisi dei dati che semplifica e accelera i flussi di lavoro completi. Con oltre 150 container di livello enterprise, cui carichi di lavoro per IA generativaIA conversazionale, e sistemi recommender, oltre 100 modelli e SDK specifici per settore che possono essere distribuiti in locale, nel cloud o sui sistemi periferici, il catalogo NGC permette agli esperti di dati, ai ricercatori e agli sviluppatori di creare soluzioni all'avanguardia, ricavare dati utili e fornire valore aziendale più velocemente che mai.

Infrastruttura IA leader

Per ottenere risultati leader a livello mondiale in materia di training e inferenza è necessaria un'infrastruttura appositamente costruita per le sfide di intelligenza artificiale più complesse del mondo. Piattaforma NVIDIA AI con prestazioni leader di settore basate su NVIDIA GH200 Grace Hopper Superchip, GPU NVIDIA H100 Tensor Core, GPU NVIDIA L4 Tensor Core e con la scalabilità e la flessibilità delle tecnologie di interconnessine NVIDIA NVLink®, NVSwitch™ e Quantum-2 InfiniBand. Questi prodotti sono al cuore della piattaforma per data center NVIDIA, il motore alla base delle prestazioni nel benchmark.

Inoltre, i sistemi NVIDIA DGX™ offrono la scalabilità, la distribuzione rapida e l'incredibile potenza di calcolo che consentono a ogni impresa di progettare un'infrastruttura IA leader di settore.

Leadership-Class AI Infrastructure

Scopri di più sulle prestazioni dei nostri prodotti per l'inferenza e il training del data center.