Definindo um Novo Parâmetro no MLPerf

As soluções de treinamento e inferência da NVIDIA entregam desempenho recorde no MLPerf, a referência líder do setor para desempenho de AI

O que é o MLPerf?

O MLPerf é um consórcio entre líderes de AI do meio acadêmico, dos laboratórios de pesquisa e da indústria cuja missão é "criar referências justas e úteis" que proporcionem avaliações imparciais de desempenho de treinamento e inferência para hardware, software e serviços — tudo isso feito sob condições prescritas. Para permanecer na vanguarda das tendências do setor, o MLPerf continua evoluindo e realiza novos testes em intervalos regulares.

CATEGORIAS DE ENVIO DO MLPERF

O treinamento MLPerf v 0.7 é a terceira instanciação de treinamento e consiste em oito cargas de trabalho diferentes que abrangem uma ampla diversidade de casos de uso, incluindo visão, linguagem, recomendações e aprendizado por reforço.

A Inferência do MLPerf v0.7 testou cinco casos de uso diferentes em sete tipos diferentes de redes neurais. Três desses casos de uso foram para visão computacional, um para sistemas de recomendação, dois para processamento de linguagem e um para imagens médicas.

Classificação de Imagens

Classificação de Imagens

Atribui um rótulo de um conjunto fixo de categorias a uma imagem de entrada, isto é, aplica-se a problemas de visão computacional, como veículos autônomos. Mais detalhes.

Detecção de Objetos (Leve)

Detecção de Objetos (Leve)

Localiza instâncias de objetos do mundo real, como rostos, bicicletas e construções, em imagens ou vídeos e especifica uma caixa delimitadora em torno de cada uma. Mais detalhes.

Detecção de Objetos (Pesado)

Detecção de Objetos (Pesado)

Detecta objetos de interesse distintos que aparecem em uma imagem e identifica uma máscara de pixel para cada um. Mais detalhes.

Tradução (Recorrente)

Tradução (Recorrente)

Traduz texto de um idioma para outro usando uma rede neural recorrente (RNN). Mais detalhes.

Tradução (Não recorrente)

Tradução (Não recorrente)

Traduz texto de um idioma para outro usando uma rede neural de feed-forward. Mais detalhes.

Processamento de Linguagem Natural (PNL)

Processamento de Linguagem Natural (PNL)

Entende o texto usando o relacionamento entre palavras diferentes em um bloco de texto. Permite responder perguntas, parafrasear frases e muitos outros casos de uso relacionados ao idioma. Mais detalhes.

Recomendação

Recomendação

Oferece resultados personalizados em serviços voltados ao usuário, como mídias sociais ou sites de comércio eletrônico, entendendo as interações entre usuários e itens de serviço, como produtos ou anúncios. Mais detalhes.

Aprendizagem por Reforço

Aprendizagem por Reforço

Avalia diferentes ações possíveis para maximizar a recompensa usando o jogo de estratégia Go jogado em uma grade de 19x19. Mais detalhes.

RESULTADOS DO BENCHMARK MLPERF DA NVIDIA

  • Treinamento

    Treinamento

  • Inferência

    Inferência

A GPU NVIDIA A100 Tensor Core e o NVIDIA DGX SuperPOD estabeleceram todos os 16 recordes de desempenho de treinamento, tanto em cargas de trabalho por chip quanto em escala para sistemas disponíveis comercialmente. Esse desempenho inovador veio da forte integração de hardware, software e tecnologias no nível do sistema. O investimento contínuo da NVIDIA em desempenho full-stack levou a uma melhoria na taxa de transferência em relação aos três envios de MLPerf.

ATÉ 4 VEZES MAIS DESEMPENHO EM 1,5 ANOS DE MLPERF

A Inovação Full Stack da NVIDIA Fornece Melhorias Contínuas

UP TO 4X THE PERFORMANCE IN 1.5 YEAR​S OF MLPERF

NVIDIA ESTABELECE TODOS OS 16 RECORDES

Para Soluções Comercialmente Disponíveis

  Recorde de Escala Máxima Recorde por Acelerador
Recomendação (DLRM) 3.33 min 0.44 hrs
NLP (BERT) 0.81 min 6.53 hrs
Aprendizagem por Reforço (MiniGo) 17.07 min 39.96 hrs
Tradução (Não recorrente) (Transformador) 0.62 min 1.05 hrs
Tradução (Recorrente) (GNMT) 0.71 min 1.04 hrs
Detecção de Objeto (Pesado) (Máscara R-CNN) 10.46 min 10.95 hrs
Detecção de Objeto (Leve) (SSD) 0.82 min 1.36 hrs
Classificação de Imagem (ResNet-50 v1.5) 0.76 min 5.30 hrs

A NVIDIA alcançou os melhores resultados em todos os cinco cenários (servidor de data center e offline, bem como edge single-stream, multi-stream e offline). Além disso, fornecemos o melhor desempenho por acelerador entre todos os produtos testados em todos os cinco testes de benchmark. Esses resultados são uma prova, não apenas da liderança em desempenho de inferência da NVIDIA, mas também da versatilidade de nossa plataforma de inferência.

CENÁRIO DE SERVIDOR PARA DATA CENTER E EDGE

Arquitetura NVIDIA Turing

  NVIDIA T4
(Inferências/Segundo)
NVIDIA A100
(Inferências/Segundo)
NVIDIA® Jetson Xavier
(Inferências Máximas/Consulta)
DLRM
(Recomendador)
34,052 264,189 N/A
BERT
(Processamento de Linguagem Natural)
437 3,328 91
ResNet-50 v1.5
(Classificação de Imagem)
6,112 37,331 2,075
MobileNet-v1
(Detector Pequeno de Disparo Único)/td>
995 6,401 2,533
ResNet-34
(Detector de Disparo Único Grande)
139 974 51
RNN-T
(Reconhecimento de Fala)
1,495 10,300 419
3D U-Net
(Imagem Médica)
7 42 2.3

A Tecnologia por Trás dos Resultados

A complexidade da AI exige uma integração estreita entre todos os aspectos da plataforma. Conforme demonstrado nos benchmarks do MLPerf, a plataforma NVIDIA AI oferece desempenho de liderança com a GPU mais avançada do mundo, tecnologias de interconexão poderosas e escalonáveis e software de ponta, uma solução ponta a ponta que pode ser implantada no data center, no cloud ou no edge com resultados surpreendentes.

Software Otimizado que Acelera os Workflows da AI

Software Otimizado que Acelera os Workflows da AI

Um componente essencial dos resultados de inferência e treinamento da NVIDIA no MLPerf, a NGC é uma central para AI otimizada por GPU, computação de alto desempenho (HPC) e software de análise de dados — incluindo a CUDA-X — que simplifica e acelera workflows de ponta a ponta. Com mais de 150 contêineres de nível corporativo, mais de 100 modelos e SDKs específicos do setor que podem ser implantados localmente, no cloud ou no edge, o NGC permite que cientistas de dados, pesquisadores e desenvolvedores criem as melhores soluções do mercado, coletem informações e ofereçam um valor comercial mais rápido do que nunca.

Infraestrutura Líder de AI

A obtenção de resultados líderes do mundo em treinamentos e inferências exige que a infraestrutura seja desenvolvida especificamente para os desafios de AI mais complexos do mundo. A plataforma de AI NVIDIA é oferecida com o poder da GPU NVIDIA A100 Tensor Core e a escalabilidade e a flexibilidade das tecnologias de interconexão NVIDIA — NVLink®, NVSwitch e Mellanox ConnectX-6 VPI. Elas estão no centro do NVIDIA DGX A100, a máquina por trás do nosso desempenho de referência.

Os sistemas NVIDIA DGX oferecem a escalabilidade, a rápida implantação e a incrível potência computacional, permitindo que todas as empresas criem infraestruturas líderes de AI.

Infraestrutura Líder de AI

Saiba mais sobre nosso treinamento em data center e desempenho do produto de inferência.