Definindo um Novo Parâmetro no MLPerf

As soluções de treinamento e inferência da NVIDIA entregam desempenho recorde no MLPerf, a referência líder do setor para desempenho de AI

O que é o MLPerf?

O MLPerf é um consórcio entre líderes de AI do meio acadêmico, dos laboratórios de pesquisa e da indústria cuja missão é "criar referências justas e úteis" que proporcionem avaliações imparciais de desempenho de treinamento e inferência para hardware, software e serviços — tudo isso feito sob condições prescritas. Para permanecer na vanguarda das tendências do setor, o MLPerf continua evoluindo e realiza novos testes em intervalos regulares.

CATEGORIAS DE ENVIO DO MLPERF

O treinamento MLPerf v 0.7 é a terceira instanciação de treinamento e consiste em oito cargas de trabalho diferentes que abrangem uma ampla diversidade de casos de uso, incluindo visão, linguagem, recomendações e aprendizado por reforço.

O MLPerf Inference 0.5 testou três casos de uso diferentes em cinco tipos de redes neurais. Quatro desses casos de uso foram para a visão computacional, e a quinta foi para a tradução de idiomas.

Classificação de Imagem

Classificação de Imagem

Atribui um rótulo de um conjunto fixo de categorias a uma imagem de entrada, isto é, aplica-se a problemas de visão computacional, como veículos autônomos. Mais detalhes.

Detecção de Objetos (Leve)

Detecção de Objetos (Leve)

Localiza instâncias de objetos do mundo real, como rostos, bicicletas e construções, em imagens ou vídeos e especifica uma caixa delimitadora em torno de cada uma. Mais detalhes.

Detecção de Objetos (Pesado)

Detecção de Objetos (Pesado)

Detecta objetos de interesse distintos que aparecem em uma imagem e identifica uma máscara de pixel para cada um. Mais detalhes.

Tradução (Recorrente)

Tradução (Recorrente)

Traduz texto de um idioma para outro usando uma rede neural recorrente (RNN). Mais detalhes.

Tradução (Não recorrente)

Tradução (Não recorrente)

Traduz texto de um idioma para outro usando uma rede neural de feed-forward. Mais detalhes.

Processamento de Linguagem Natural (PNL)

Processamento de Linguagem Natural (PNL)

Entende o texto usando o relacionamento entre palavras diferentes em um bloco de texto. Permite responder perguntas, parafrasear frases e muitos outros casos de uso relacionados ao idioma. Mais detalhes.

Recomendação

Recomendação

Oferece resultados personalizados em serviços voltados ao usuário, como mídias sociais ou sites de comércio eletrônico, entendendo as interações entre usuários e itens de serviço, como produtos ou anúncios. Mais detalhes.

Aprendizagem por Reforço

Aprendizagem por Reforço

Avalia diferentes ações possíveis para maximizar a recompensa usando o jogo de estratégia Go jogado em uma grade de 19x19. Mais detalhes.

RESULTADOS DO BENCHMARK MLPERF DA NVIDIA

  • Treinamento

    Treinamento

  • Inferência

    Inferência

A GPU NVIDIA A100 Tensor Core e o NVIDIA DGX SuperPOD estabeleceram todos os 16 recordes de desempenho de treinamento, tanto em cargas de trabalho por chip quanto em escala para sistemas disponíveis comercialmente. Esse desempenho inovador veio da forte integração de hardware, software e tecnologias no nível do sistema. O investimento contínuo da NVIDIA em desempenho full-stack levou a uma melhoria na taxa de transferência em relação aos três envios de MLPerf.

ATÉ 4 VEZES MAIS DESEMPENHO EM 1,5 ANOS DE MLPERF

A Inovação Full Stack da NVIDIA Fornece Melhorias Contínuas

UP TO 4X THE PERFORMANCE IN 1.5 YEAR​S OF MLPERF

NVIDIA ESTABELECE TODOS OS 16 RECORDES

Para Soluções Comercialmente Disponíveis

  Recorde de Escala Máxima Recorde por Acelerador
Recomendação (DLRM) 3.33 min 0.44 hrs
NLP (BERT) 0.81 min 6.53 hrs
Aprendizagem por Reforço (MiniGo) 17.07 min 39.96 hrs
Tradução (Não recorrente) (Transformador) 0.62 min 1.05 hrs
Tradução (Recorrente) (GNMT) 0.71 min 1.04 hrs
Detecção de Objeto (Pesado) (Máscara R-CNN) 10.46 min 10.95 hrs
Detecção de Objeto (Leve) (SSD) 0.82 min 1.36 hrs
Classificação de Imagem (ResNet-50 v1.5) 0.76 min 5.30 hrs

A NVIDIA alcança os melhores resultados em todos os quatro cenários (servidor, offline, fluxo único e fluxo múltiplo). Além disso, oferecemos o melhor desempenho por acelerador entre os produtos comercialmente disponíveis nos cinco testes de referência. Esses resultados são um testemunho não apenas da liderança em desempenho de inferência da NVIDIA, mas também da versatilidade de nossa plataforma de inferência.

CENÁRIO DE SERVIDOR PARA DATA CENTER E EDGE

Arquitetura NVIDIA Turing

  NVIDIA T4
(Inferências/Segundo)
NVIDIA TITAN RTX
(Inferências/Segundo)
NVIDIA Jetson Xavier
(Inferências Máximas/Consulta)
MobileNet-v1 16,884 47,775 302
ResNet-50 v1.5 5,193 15,008 100
SSD MobileNet-v1 7,078 20,501 102
SSD ResNet-34 126 338 2
GNMT 198 645 N/A

A Tecnologia por Trás dos Resultados

A complexidade das demandas de AI exige uma forte integração entre todos os aspectos da plataforma. Como demonstrado nas referências do MLPerf, a plataforma de AI da NVIDIA entrega o máximo desempenho com a GPU mais avançada do mundo e as tecnologias de interconexão poderosas e escaláveis, além do software de ponta — uma solução completa que pode ser implantada no data center, no cloud ou no edge com resultados incríveis.

Software Otimizado que Acelera os Workflows da AI

Software Otimizado que Acelera os Workflows da AI

Um componente essencial dos resultados de inferência e treinamento da NVIDIA no MLPerf, a NGC é uma central para AI otimizada por GPU, computação de alto desempenho (HPC) e software de análise de dados — incluindo a CUDA-X — que simplifica e acelera workflows de ponta a ponta. Com mais de 150 contêineres de nível corporativo, mais de 100 modelos e SDKs específicos do setor que podem ser implantados localmente, no cloud ou no edge, o NGC permite que cientistas de dados, pesquisadores e desenvolvedores criem as melhores soluções do mercado, coletem informações e ofereçam um valor comercial mais rápido do que nunca.

Infraestrutura Líder de AI

A obtenção de resultados líderes do mundo em treinamentos e inferências exige que a infraestrutura seja desenvolvida especificamente para os desafios de AI mais complexos do mundo. A plataforma de AI NVIDIA é oferecida com o poder da GPU NVIDIA A100 Tensor Core e a escalabilidade e a flexibilidade das tecnologias de interconexão NVIDIA — NVLink®, NVSwitch e Mellanox ConnectX-6 VPI. Elas estão no centro do NVIDIA DGX A100, a máquina por trás do nosso desempenho de referência.

Os sistemas NVIDIA DGX oferecem a escalabilidade, a rápida implantação e a incrível potência computacional, permitindo que todas as empresas criem infraestruturas líderes de AI.

Infraestrutura Líder de AI

Saiba mais sobre nosso treinamento em data center e desempenho do produto de inferência.