Configuración de una nueva barra en MLPerf

Las soluciones de entrenamiento e inferencia de NVIDIA ofrecen un rendimiento sin precedentes en MLPerf, la prueba de referencia líder del sector para rendimiento de IA.

¿Qué es MLPerf?

MLPerf es un consorcio de directivos de IA procedentes del ámbito académico, laboratorios de investigación y el sector industrial cuya misión es "crear pruebas de referencia útiles y razonables" que ofrezcan evaluaciones no sesgadas del entrenamiento y la inferencia para hardware, software y servicios, todo lo cual se realiza bajo las condiciones prescritas. Para mantenerse a la vanguardia de las tendencias del sector, MLPerf sigue evolucionando, con la realización de nuevas pruebas a intervalos regulares y la adición de nuevas cargas de trabajo que representan lo último en IA.

Categorías de presentación de MLPerf

MLPerf Training v0.7 es la tercera instancia del entrenamiento y consta de ocho cargas de trabajo diferentes que cubren una amplia diversidad de casos de uso, como, por ejemplo, visión, lenguaje, recomendaciones y aprendizaje de refuerzo.

MLPerf Inference v 0.7 probó cinco casos de uso diferentes en siete tipos diferentes de redes neuronales. Tres de estos casos de uso fueron de visión computarizada, uno para sistemas recomendados, dos para el procesamiento lingüístico y otro para la creación de imágenes médicas.

Clasificación de imágenes

Clasificación de imágenes

Asigna una etiqueta de un conjunto fijo de categorías a una imagen de entrada, es decir, se aplica a problemas de visión computarizada como vehículos autónomos. Más información.

Detección de objetos (ligera)

Detección de objetos (ligera)

Busca instancias de objetos del mundo real, como caras, bicicletas y edificios, en imágenes o vídeos, y especifica un cuadro delimitador alrededor de cada uno. Más información.

Detección de objetos (pesada)

Detección de objetos (pesada)

Detecta distintos objetos de interés que aparecen en una imagen e identifica una máscara de píxeles para cada uno. Más información.

Traducción (recurrente)

Traducción (recurrente)

Traduce texto de un idioma a otro mediante una red neuronal recurrente (RNN). Más información.

Traducción (no recurrente)

Traducción (no recurrente)

Traduce el texto de un idioma a otro mediante una red neuronal de avance de alimentación. Más información.

Procesamiento del lenguaje natural (PLN)

Procesamiento del lenguaje natural (PLN)

Entiende el texto mediante la relación entre las distintas palabras de un bloque de texto. Permite responder a preguntas, parafrasear oraciones y muchos otros casos de uso relacionados con el idioma. Más información.

Recomendación

Recomendación

Ofrece resultados personalizados en servicios de contacto entre usuarios, como redes sociales o sitios web de comercio electrónico, al comprender las interacciones entre usuarios y servicios, como los productos o los anuncios. Más información.

Aprendizaje de refuerzo

Aprendizaje de refuerzo

Evalúa distintas acciones posibles para maximizar el uso del juego de estrategia Go en una cuadrícula de 19x19. Más información.

Resultados de las pruebas de referencia de MLPerf de NVIDIA

  • Entrenamiento

    Entrenamiento

  • Inferencia

    Inferencia

Las GPU NVIDIA A100 Tensor Core y NVIDIA DGX SuperPOD establecieron los 16 récords de rendimiento de entrenamiento, tanto en cargas de trabajo por chip como a escala, para los sistemas disponibles en el mercado. Este innovador rendimiento se debe a la estrecha integración del hardware, el software y las tecnologías de nivel de sistema. La inversión continua de NVIDIA en rendimiento de pila completa se ha traducido en una mejora en el rendimiento en las tres presentaciones MLPerf.

HASTA 4 VECES EL RENDIMIENTO EN 1,5 AÑOS DE MLPERF

La completa innovación de la pila de NVIDIA ofrece mejoras continuas

HASTA 4 VECES EL RENDIMIENTO EN 1,5 AÑOS DE MLPERF

NVIDIA establece los 16 récords

Para soluciones disponibles en el mercado

  Récords de Max Scale Récords de Per Accelerator
Recomendación (DLRM) 3,33 m 0,44 h
NLP (BERT) 0,81 m 6,53 h
Aprendizaje de refuerzo (MiniGo) 17,07 m 39,96 h
Traducción (no recurrente) (Transformer) 0,62 m 1,05 h
Traducción (recurrente) (GNMT) 0,71 m 1,04 h
Detección de objetos (pesada) (Mask R-CNN) 10,46 m 10,95 h
Detección de objetos (ligera) (SSD) 0,82 m 1,36 h
Clasificación de imágenes (ResNet-50 v1.5) 0,76 m 5,30 h

NVIDIA obtuvo los mejores resultados en los cinco escenarios (servidor de centro de datos y sin conexión, así como en una sola secuencia de periferia, varias secuencias y sin conexión). Además, proporcionamos el mejor rendimiento por acelerador entre los productos probados en las cinco pruebas de referencia. Estos resultados son un testimonio no solo del liderazgo en rendimiento de inferencia de NVIDIA, sino también de la versatilidad de nuestra plataforma de inferencia

Escenario de servidor de centro de datos y perímetro

Arquitectura NVIDIA Turing

  NVIDIA T4
(Inferencias por segundo)
NVIDIA A100
(Inferencias por segundo)
NVIDIA® Jetson Xavier
(Inferencias máximas por consulta)
DLRM
(Recomendación)
34,052 264,189 N/A
BERT
(Procesamiento de lenguaje natural)
437 3,328 91
ResNet-50 v1.5
(Clasificación de imágenes)
6,112 37,331 2,075
MobileNet-v1
(Detector de capturas únicas pequeñas)
995 6,401 2,533
ResNet-34
(Detector de capturas únicas grandes)
139 974 51
RNN-T
(Reconocimiento de voz)
1,495 10,300 419
3D U-Net
(Imágenes médicas)
7 42 2.3

La tecnología detrás de los resultados

La complejidad de la inteligencia artificial exige una estrecha integración entre todos los aspectos de la plataforma. Como se ha demostrado en las pruebas de referencia de MLPerf, la plataforma de IA de NVIDIA ofrece un rendimiento de liderazgo con la GPU más avanzada del mundo, tecnologías de interconexión potentes y escalables y software de vanguardia: una solución integral que se puede implementar en el centro de datos, en la nube o en el perímetro con resultados increíbles.

Software optimizado que acelera los flujos de trabajo de IA

Software optimizado que acelera los flujos de trabajo de IA

Un componente esencial de los resultados de entrenamiento e inferencia MLPerf y la plataforma de NVIDIA, NGC es un centro de IA optimizado para GPU, computación de alto rendimiento (HPC) y software de análisis de datos que simplifica y acelera los flujos de trabajo de extremo a extremo. Con más de 150 contenedores de nivel empresarial, que incluyen cargas de trabajo para IA conversacional y sistemas recomendados, más de 100 modelos y SDK específicos del sector que se pueden implementar en el entorno local, en la nube o en el perímetro, NGC permite que los científicos, los investigadores y los desarrolladores de datos creen las mejores soluciones de su clase, recopilen información y aporten valor a la empresa con mayor rapidez que nunca.

Infraestructura de IA de nivel de liderazgo

La consecución de resultados de primer nivel en el entrenamiento y las inferencias requiere una infraestructura diseñada expresamente para los desafíos más complejos del mundo. La plataforma IA de NVIDIA se ofrece con la potencia de la GPU NVIDIA A100 Tensor Core, la GPU NVIDIA T4 Tensor Core y la escalabilidad y flexibilidad de las tecnologías de interconexión de NVIDIA, NVLink®, NVSwitch y los adaptadores Mellanox ConnectX-6 VPI. Estos se encuentran en el centro de NVIDIA DGX A100, el motor que respalda nuestra prueba de referencia de rendimiento.

Los sistemas NVIDIA DGX ofrecen la escalabilidad, la rápida implementación y una increíble capacidad de cálculo que permite a todas las empresas crear infraestructuras de IA de nivel de liderazgo.

Infraestructura de IA de nivel de liderazgo

Obtén más información sobre el rendimiento del producto de entrenamiento e inferencia de nuestro centro de datos.