Establecer una Nueva Norma para MLPerf

Las soluciones de entrenamiento e inferencia de NVIDIA ofrecen un rendimiento récord en MLPerf, la evaluación líder en la industria para el rendimiento de IA

¿Qué es MLPerf?

MLPerf es un grupo de líderes de IA de la industria, laboratorios de investigación e instituciones académicas cuya misión es “desarrollar evaluaciones útiles e imparciales”, que proporcionen pruebas sin sesgos (que se llevan a cabo bajo condiciones prescritas) para el rendimiento de la inferencia y el entrenamiento del hardware, el software y los servicios. Para seguir a la vanguardia de las tendencias de la industria, MLPerf sigue evolucionando y realiza nuevas pruebas de forma periódica y agregando nuevas cargas de trabajo que representan el estado del arte en IA.

CATEGORÍAS DE PRESENTACIÓN DE MLPERF

MLPerf Training v0.7 es la tercera instancia de entrenamiento y cuenta con ocho cargas de trabajo diferentes que abarcan diversos casos de uso, lo que incluye visión, lenguaje, recomendadores y aprendizaje de refuerzo.

La Inferencia de MLPerf v0.7 probó cinco casos de uso diferentes en siete tipos diferentes de redes neuronales. Tres de estos casos de uso fueron para visión por computadora, uno para sistemas de recomendación, dos para procesamiento de lenguaje y uno para imágenes médicas.

Clasificación de Imágenes

Clasificación de Imágenes

Asigna una etiqueta de un conjunto fijo de categorías a una imagen de entrada, es decir, se aplica a problemas de visión por computadora, como los vehículos autónomos. Más detalles.

Detección de Objetos (Ligero)

Detección de Objetos (Ligero)

Encuentra instancias de objetos del mundo real como caras, bicicletas y edificios en imágenes o videos y especifica un cuadro delimitador alrededor de cada uno. Más detalles.

Detección de Objetos (Peso Pesado)

Detección de Objetos (Peso Pesado)

Detecta distintos objetos de interés que aparecen en una imagen e identifica una máscara de píxeles para cada uno. Más detalles.

Traducción (Recurrente)

Traducción (Recurrente)

Traduce texto de un idioma a otro utilizando una red neuronal recurrente (RNN). Más detalles.

Traducción (No recurrente)

Traducción (No recurrente)

Traduce el texto de un idioma a otro utilizando una red neuronal de avance. Más detalles.

Procesamiento de Lenguaje Natural (PNL)

Procesamiento de Lenguaje Natural (PNL)

Entiende el texto usando la relación entre diferentes palabras en un bloque de texto. Permite responder preguntas, parafrasear oraciones y muchos otros casos de uso relacionados con el lenguaje. Más detalles.

Recomendación

Recomendación

Ofrece resultados personalizados en servicios orientados al usuario, como redes sociales o sitios web de comercio electrónico, al comprender las interacciones entre los usuarios y los elementos de servicio, como productos o anuncios. Más detalles.

Aprendizaje Reforzado

Aprendizaje Reforzado

Evalúa diferentes acciones posibles para maximizar la recompensa usando el juego de estrategia Go jugado en una grilla de 19x19. Más detalles.

RESULTADOS DEL BENCHMARK MLPERF DE NVIDIA

  • Entrenamiento

    Entrenamiento

  • Inferencia

    Inferencia

La GPU NVIDIA A100 Tensor Core y el NVIDIA DGX SuperPOD establecen los 16 registros de rendimiento de entrenamiento, tanto en cargas de trabajo por chip como a escala para sistemas disponibles comercialmente. Este rendimiento revolucionario provino de la estrecha integración de hardware, software y tecnologías de nivel de sistema. La inversión continua de NVIDIA en el rendimiento de la pila completa ha llevado a una mejora en el rendimiento en los tres envíos MLPerf.

HASTA 4 VECES EL RENDIMIENTO EN 1.5 AÑOS DE MLPERF

La Innovación de Pila Completa de NVIDIA Ofrece Mejoras Continuas

HASTA 4 VECES EL RENDIMIENTO EN 1.5 AÑOS DE MLPERF

NVIDIA ESTABLECE LOS 16 REGISTROS

Para Soluciones Disponibles Comercialmente

  Registros de Escala Máxima Registros por Acelerador
Recomendación (DLRM) 3.33 min 0.44 hrs
NLP (BERT) 0.81 min 6.53 hrs
Aprendizaje de Refuerzo (MiniGo) 17.07 min 39.96 hrs
Traducción (No recurrente) (Transformador) 0.62 min 1.05 hrs
Traducción (Recurrente) (GNMT) 0.71 min 1.04 hrs
Detección de Objetos (Peso Pesado) (Máscara R-CNN) 10.46 min 10.95 hrs
Detección de Objetos (Ligero) (SSD) 0.82 min 1.36 hrs
Clasificación de Imagen (ResNet-50 v1.5) 0.76 min 5.30 hrs

NVIDIA logró los mejores resultados en los cinco escenarios (servidor del data center y fuera de línea, así como en el edge de una sola secuencia, varias secuencias y fuera de línea). Además, entregamos el mejor rendimiento por acelerador entre todos los productos probados en las cinco pruebas comparativas. Estos resultados son un testimonio, no solo del liderazgo de rendimiento de inferencia de NVIDIA, sino también de la versatilidad de nuestra plataforma de inferencia.

ESCENARIO DE SERVIDOR PARA DATA CENTER Y EDGE

Arquitectura NVIDIA Turing

  NVIDIA T4
(Inferencias / Segundo)
NVIDIA A100
(Inferencias / Segundo)
NVIDIA® Jetson Xavier
(Máximo de Inferencias /Consulta)
DLRM
(Recomendador)
34,052 264,189 N/A
BERT
(Procesamiento Natural del Lenguaje)
437 3,328 91
ResNet-50 v1.5
(Clasificación de Imágenes)
6,112 37,331 2,075
MobileNet-v1
(Detector de Disparo Único Pequeño)
995 6,401 2,533
ResNet-34
(Detector de Disparo Único Grande)
139 974 51
RNN-T
(Reconocimiento de Voz)
1,495 10,300 419
3D U-Net
(Imagenes Medicas)
7 42 2.3

La Tecnología Detrás de los Resultados

La complejidad de la IA exige una estrecha integración entre todos los aspectos de la plataforma. Como se demuestra en los puntos de referencia de MLPerf, la plataforma de IA de NVIDIA ofrece un rendimiento de liderazgo con la GPU más avanzada del mundo, tecnologías de interconexión potentes y escalables y software de vanguardia, una solución de extremo a extremo que se puede implementar en el data center, en el cloud o en el edge con resultados sorprendentes.

Software Optimizado que Acelera los Workflows de IA

Software Optimizado que Acelera los Workflows de IA

NGC es un componente esencial de NVIDIA para lograr estos resultados de inferencia y entrenamiento en MLPerf, dado que nuclea el software optimizado por GPU de análisis de datos, de procesamiento de alto rendimiento (HPC) y de IA, lo que simplifica y acelera los workflows integrales. NGC cuenta con más de 150contenedores de grado empresarial, más de 100modelos y SDK específicos de la industria, que se pueden implementar en las instalaciones, en cloud o en edge. De esta manera, NGC permite a los científicos de datos, investigadores y desarrolladores generar las mejores soluciones, obtener resultados y lograr valor comercial más rápido que antes.

Infraestructura de IA Líder

Lograr resultados increíbles en las evaluaciones de entrenamiento e inferencia requiere una infraestructura que se haya diseñado específicamente para los desafíos de IA más complejos del mundo. La plataforma de IA de NVIDIA AI proporcionó la potencia de las GPU NVIDIA A100 Tensor Core GPU y la escalabilidad y la flexibilidad de las tecnologías de interconexión de NVIDIA: —NVLink®, NVSwitch y Mellanox ConnectX-6 VPI. Estos componentes son la base de la NVIDIA DGX A100, el motor detrás de nuestro rendimiento récord.

Los sistemas NVIDIA DGX ofrecen la escalabilidad, implementación rápida y potencia de procesamiento increíble que permiten a cada empresa desarrollar una infraestructura de IA líder.

Infraestructura de IA Líder

Obtenga más información sobre nuestra capacitación en data center y el rendimiento del producto de inferencia.