Stabilire un nuovo record nel MLPerf

Le soluzioni di training e inferenza NVIDIA offrono risultati MLPerf con performance da record, il benchmark leader del settore per le prestazioni IA.

Cos'è MLPerf?

MLPerf è un consorzio di leader nell'intelligenza artificiale dal mondo accademico, laboratori di ricerca e settori la cui missione è la "creazione di benchmark equi e utili" che forniscano valutazioni imparziali sulle prestazioni di inferenza e training di hardware, software e servizi, il tutto condotto in condizioni prescritte. Per rimanere al passo con le tendenze del settore, MLPerf continua a evolversi, svolgendo nuovi test a intervalli regolari e aggiungendo nuovi carichi di lavoro che rappresentano l'avanguardia dell'intelligenza artificiale.

Categorie di invio di contenuti MLPerf

MLPerf Training v0.7 è la terza istanza di formazione e consiste in otto carichi di lavoro diversi che ricoprono svariati ambienti, tra cui la visione, la lingua, i consigli e l'apprendimento di rinforzo.

MLPerf Inference v0.5 ha testato tre diversi ambienti in cinque tipi di reti neurali. Quattro di questi ambienti erano per la visione del computer e il quinto per la traduzione di lingua.

Classificazione di immagini

Classificazione di immagini

Assegna un';etichetta proveniente da una serie fissa di categorie a un immagine acquisita, es. riguarda i problemi di visione del computer come i veicoli autonomi. Scopri di più.

Rilevamento di oggetti (leggero)

Rilevamento di oggetti (leggero)

Rileva istanze di oggetti del mondo reale come visi, biciclette ed edifici all';interno di immagini o video e delinea una bounding box attorno ad essi. Scopri di più.

Rilevamento di oggetti (pesante)

Rilevamento di oggetti (pesante)

Rileva distinti oggetti d';interesse che vengono visualizzati in un immagine e calcola una maschera di pixel per ognuno. Scopri di più.

Traduzione (ricorrente)

Traduzione (ricorrente)

Traduce un testo da una lingua verso un';altra utilizzando una rete neutrale ricorrente (RNN). Scopri di più.

Traduzione (non ricorrente)

Traduzione (non ricorrente)

Traduce un testo da una lingua verso un';altra utilizzando una rete neutrale feed-forward. Scopri di più.

Natural Language Processing (NLP)

Natural Language Processing (NLP)

Comprende un testo utilizzando la relazione tra parole diverse in un blocco di testo. Consente di rispondere alle domande, parafrasare le frasi e molti altri ambienti correlati alla lingua. Scopri di più.

Consigli

Consigli

Offre risultati personalizzati nei servizi rivolti agli utenti, come social media o siti di e-commerce, apprendendo le interazioni tra utenti e servizi, come prodotti o annunci. Scopri di più.

Apprendimento di rinforzo

Apprendimento di rinforzo

Valuta le diverse azioni possibili per massimizzare la ricompensa utilizzando il gioco di strategia Go giocato su una griglia 19x19. Scopri di più.

I risultati di NVIDIA nel benchmark MLPerf

  • Training

    Training

  • Inferenza

    Inferenza

La GPU NVIDIA A100 Tensor core e NVIDIA DGX SuperPOD hanno stabilito tutti i 16 record di prestazioni di training, sia nei carichi di lavoro per chip sia su larga scala per i sistemi disponibili in commercio. Queste prestazioni rivoluzionarie sono il risultato dalla stretta integrazione tra hardware, software e tecnologie a livello di sistema. Il continuo investimento di NVIDIA nelle prestazioni full-stack ha portato a un miglioramento del throughput rispetto alle tre presentazioni MLPerf.

PRESTAZIONI MLPERF FINO A 4 VOLTE SUPERIORI IN 1,5 ANNI

L'innovazione full-stack di NVIDIA offre miglioramenti continui

PRESTAZIONI MLPERF FINO A 4 VOLTE SUPERIORI IN 1,5 ANNI

NVIDIA ha stabilito tutti i 16 record

Per soluzioni disponibili in commercio

  Record di scala massima Record per acceleratore
Consigli (DLRM) 3,33 min 0,44 ore
NLP (BERT) 0,81 min 6,53 ore
Apprendimento di rinforzo (MiniGo) 17,07 min 39,96 ore
Traduzione (non ricorrente) (trasformatore) 0,62 min 1,05 ore
Traduzione (ricorrente) (GNMT) 0,71 min 1,04 ore
Rilevamento di oggetti (pesante) (Mask R-CNN) 10,46 min 10,95 ore
Rilevamento di oggetti (leggero) (SSD) 0,82 min 1,36 ore
Classificazione di immagini (ResNet-50 v1.5) 0,76 min 5,30 ore

NVIDIA raggiunge i massimi risultati in tutti e quattro gli scenari (server, offline, single-stream e multi-stream). Inoltre, offriamo le migliori prestazioni per acceleratore tra i prodotti disponibili in commercio in tutti i cinque test di benchmark. Questi risultati sono un testamento non solo per la leadership delle prestazioni di inferenza di NVIDIA, ma anche per la versatilità della nostra piattaforma di inferenza.

Scenario server per data center ed edge

Architettura NVIDIA Turing

  NVIDIA T4
(Inferenza/secondo)
NVIDIA TITAN RTX
(Inferenza/secondo)
NVIDIA Jetson Xavier
(Query/inferenze massime)
MobileNet-v1 16.884 47.775 302
ResNet-50 v1.5 5.193 15.008 100
SSD MobileNet-v1 7.078 20.501 102
SSD ResNet-34 126 338 2
GNMT 198 645 N/A

La tecnologia dietro ai risultati

La complessità dell'IA richiede una stretta integrazione di tutti gli aspetti della piattaforma. Come dimostrato dai benchmark MLPerf, la piattaforma IA NVIDIA offre prestazioni di leadership con la GPU più avanzata al mondo, tecnologie di interconnessione potenti e scalabili e software all'avanguardia, una soluzione end-to-end che può essere installata nel data center, nel cloud o all'edge con risultati incredibili.

Software ottimizzato che accelera i flussi di lavoro IA

Software ottimizzato che accelera i flussi di lavoro IA

Una componente essenziale della piattaforma NVIDIA e dei risultati MLPerf di inferenza e training, NGC è un hub per l'IA ottimizzato per GPU, l'elaborazione ad alte prestazioni (HPC) e il software di analisi dei dati che semplifica e accelera i flussi di lavoro end-to-end. Con oltre 150 contenitori di livello aziendale, tra cui carichi di lavoro per IA conversazionale e sistemi di consigli, oltre 100 modelli e SDK specifici per il settore che possono essere installati on-premise, nel cloud o all'edge, NGC consente ai data scientist, ai ricercatori e agli sviluppatori di progettare soluzioni con la migliore qualità, raccogliere informazioni e offrire valore aziendale più velocemente che mai.

Infrastruttura IA a livello di leadership

Raggiungere risultati leader a livello mondiale in training e inferenze richiede un'infrastruttura costruita appositamente per le sfide di IA più complesse al mondo. La piattaforma IA NVIDIA viene offerta con la potenza della GPU NVIDIA A100 Tensor Core, della GPU NVIDIA T4 Tensor Core e con la scalabilità e la flessibilità delle tecnologie di interconnessione NVIDIA, NVLink®, NVSwitch e Mellanox ConnectX-6 VPI. Questi sono al centro di NVIDIA DGX A100, il motore dietro le nostre prestazioni di benchmark.

I sistemi NVIDIA DGX offrono la scalabilità, la rapida installazione e l'incredibile potenza di elaborazione utili per tutte le aziende per progettare un'infrastruttura IA a livello di leadership.

Infrastruttura IA leader

Scopri di più sulle prestazioni dei nostri prodotti per l'inferenza e il training del data center.