Configuración de una nueva barra en MLPerf

Las soluciones de entrenamiento e inferencia de NVIDIA ofrecen un rendimiento sin precedentes en MLPerf, la prueba de referencia líder del sector para rendimiento de IA.

¿Qué es MLPerf?

MLPerf es un consorcio de directivos de IA procedentes del ámbito académico, laboratorios de investigación y el sector industrial cuya misión es “crear pruebas de referencia útiles y razonables” que ofrezcan evaluaciones no sesgadas del entrenamiento y la inferencia para hardware, software y servicios, todo lo cual se realiza bajo las condiciones prescritas. Para mantenerse a la vanguardia de las tendencias del sector, MLPerf sigue evolucionando, con la realización de nuevas pruebas a intervalos regulares y la adición de nuevas cargas de trabajo que representan lo último en IA.

La Universidad Chalmers es una de las principales instituciones de investigación en Suecia, especializada en diversas áreas, desde nanotecnología hasta estudios climáticos. A medida que incorporamos la IA para avanzar en nuestros esfuerzos de investigación, descubrimos que las pruebas de rendimiento de MLPerf proporcionan una comparación transparente entre iguales de varias plataformas de IA para mostrar el rendimiento real en diversos casos de uso del mundo real.

— Universidad Tecnológica Chalmers, Suecia

TSMC está impulsando la vanguardia de la fabricación global de semiconductores, como nuestro último nodo de 5nm que lidera el mercado en tecnología de procesos. Innovaciones como la litografía basada en aprendizaje automático y el modelado de grabados mejoran drásticamente nuestra corrección de proximidad óptica (OPC) y la precisión de la simulación de grabado. Para aprovechar al máximo el potencial del aprendizaje automático en el entrenamiento de modelos y la inferencia, estamos trabajando con el equipo de ingeniería de NVIDIA para portar nuestro motor Maxwell de simulación y tecnología de litografía inversa (ILT) a las GPU y ver aceleraciones muy significativas. Las pruebas de referencia de MLPerf son un factor importante en nuestra toma de decisiones.

— Dr. Danping Peng, Director, Departamento de OPC, TSMC, San José, CA, EE. UU.

La visión computarizada y la creación de imágenes están en el centro de la investigación de la IA, impulsando el descubrimiento científico y representando fácilmente los componentes centrales de la atención médica. Hemos colaborado estrechamente con NVIDIA para introducir innovaciones como 3DUNet en el mercado sanitario. Las pruebas de referencia de MLPerf estándares del sector proporcionan datos de rendimiento relevantes en beneficio de las organizaciones y desarrolladores de TI para obtener la solución adecuada para acelerar sus proyectos y aplicaciones específicos.

— Prof. Dr. Klaus Maier-Hein (Jefe de Computación de Imágenes Médicas, Deutsches Krebsforschungszentrum (DKFZ, Centro Alemán de Investigación del Cáncer)

Como líder preeminente en investigación y fabricación, Samsung utiliza la IA para aumentar drásticamente el rendimiento del producto y la productividad de fabricación. La comercialización de estos avances de IA requiere que tengamos la mejor plataforma informática disponible. Las pruebas de referencia de MLPerf agilizan nuestro proceso de selección al proporcionarnos un método de evaluación abierto y directo para evaluar, de manera uniforme, en todas las plataformas.

— Samsung Electronics

Categorías de presentación de MLPerf

MLPerf Training v1.0 es la cuarta instancia del entrenamiento y consta de ocho cargas de trabajo diferentes que cubren una amplia diversidad de casos de uso, como, por ejemplo, visión, lenguaje, recomendaciones y aprendizaje de refuerzo. 

MLPerf Inference v1.0 probó siete casos de uso diferentes en siete tipos diferentes de redes neuronales. Tres de estos casos de uso fueron de visión computarizada, uno para sistemas recomendados, dos para el procesamiento lingüístico y otro para la creación de imágenes médicas.

Clasificación de imágenes

Clasificación de imágenes

Asigna una etiqueta de un conjunto fijo de categorías a una imagen de entrada, es decir, se aplica a problemas de visión computarizada. Más información.

Detección de objetos (ligera)

Detección de objetos (ligera)

Busca instancias de objetos del mundo real, como caras, bicicletas y edificios, en imágenes o vídeos, y especifica un cuadro delimitador alrededor de cada uno. Más información.

Detección de objetos (pesada)

Detección de objetos (pesada)

Detecta distintos objetos de interés que aparecen en una imagen e identifica una máscara de píxeles para cada uno. Más información.

Segmentación de imágenes biomédicas

Segmentación de imágenes biomédicas

Realiza la segmentación volumétrica de imágenes 3D densas para casos de uso médico. Detalles.

Traducción (recurrente)

Traducción (recurrente)

Traduce texto de un idioma a otro mediante una red neuronal recurrente (RNN). Más información.

Traducción (no recurrente)

Traducción (no recurrente)

Traduce el texto de un idioma a otro mediante una red neuronal de avance de alimentación. Más información.

Reconocimiento de voz automático (ASR)

Reconocimiento de voz automático (ASR)

Reconoce y transcribe audio en tiempo real. Detalles.

Procesamiento del lenguaje natural (PLN)

Procesamiento del lenguaje natural (PLN)

Entiende el texto mediante la relación entre las distintas palabras de un bloque de texto. Permite responder a preguntas, parafrasear oraciones y muchos otros casos de uso relacionados con el idioma. detalles.

Recomendación

Recomendación

Ofrece resultados personalizados en servicios de contacto entre usuarios, como redes sociales o sitios web de comercio electrónico, al comprender las interacciones entre usuarios y servicios, como los productos o los anuncios. Más información.

Aprendizaje de refuerzo

Aprendizaje de refuerzo

Evalúa distintas acciones posibles para maximizar el uso del juego de estrategia Go en una cuadrícula de 19x19. Más información.

Resultados de las pruebas de referencia de MLPerf de NVIDIA

  • Entrenamiento

    Entrenamiento

  • Inferencia

    Inferencia

La GPU NVIDIA A100 Tensor Core y NVIDIA DGX SuperPOD establecieron los 16 récords de rendimiento de entrenamiento, tanto en cargas de trabajo por chip como a escala, para los sistemas disponibles en el mercado. Este innovador rendimiento se debe a la estrecha integración del hardware, el software y las tecnologías de nivel de sistema. La inversión continua de NVIDIA en rendimiento de pila completa se ha traducido en una mejora en el rendimiento en las cuatro presentaciones MLPerf.

MÁS DE 6,5 VECES EL RENDIMIENTO EN 2,5 AÑOS DE MLPERF

La completa innovación de la pila de NVIDIA ofrece mejoras continuas

MÁS DE 6,5 VECES EL RENDIMIENTO EN 2,5 AÑOS DE MLPERF

NVIDIA ESTABLECE LOS 16 RÉCORDS

Para soluciones disponibles en el mercado

La plataforma NVIDIA AI estableció los 8 récords por acelerador utilizando GPU NVIDIA A100 en servidores OEM, así como NVIDIA DGX. Esto demuestra la fortaleza de la pila de hardware y software NVIDIA integral que permite a los fabricantes de ordenadores ofrecer resultados récord en MLPerf.

  Récords de Max Scale (min) Récords de Per Accelerator (min)
Recomendación (DLRM) 0,99 (DGX SuperPOD) 15,3 (A100)
NLP (BERT) 0,32 (DGX SuperPOD) 169,2 (A100)
Reconocimiento de voz (recurrente) (RNN-T) 2,75 (DGX SuperPOD) 309,6 (A100)
Detección de objetos (pesada) (Mask R-CNN) 3,95 (DGX SuperPOD) 400,2 (A100)
Detección de objetos (ligera) (SSD) 0,48 (DGX SuperPOD) 66,5 (A100)
Clasificación de imágenes (ResNet-50 v1.5) 0,4 (DGX SuperPOD) 219,0 (A100)
Segmentación de imágenes (3D-Unet) 3 (DGX SuperPOD) 219,0 (A100)
Aprendizaje de refuerzo (MiniGo) 15,53 (DGX SuperPOD) 2156,3 (A100)

NVIDIA obtuvo los mejores resultados de rendimiento en todos los escenarios (servidor de centro de datos y sin conexión, así como en una sola secuencia de periferia, varias secuencias y sin conexión). Además, ofrecimos el mejor rendimiento por acelerador entre los productos probados en todas las pruebas de referencia. Estos resultados son un testimonio no solo del liderazgo en rendimiento de inferencia de NVIDIA, sino también de la versatilidad de nuestra plataforma de inferencia.

Escenario de centro de datos y perímetro (GPU única)

  NVIDIA A100 (CPU x86)
(Inferencias por segundo)
NVIDIA A100 (CPU ARM)
(Inferencias por segundo)
NVIDIA A30
(Inferencias por segundo)
NVIDIA® Jetson Xavier
(Inferencias máximas por consulta)
DLRM
(Recomendación)
302 680 274 433 135 450 N/D*
BERT
(Procesamiento de lenguaje natural)
3538 3151 1673 97
ResNet-50 v1.5
(Clasificación de imágenes)
39 190 36 436 18 647 2039
ResNet-34
(Detector de capturas únicas grandes)
981 901 474 55
RNN-T
(Reconocimiento de voz)
13 365 12 640 6574 416
3D U-net
(Imágenes médicas)
61 57 30 3

La tecnología detrás de los resultados

La complejidad de la inteligencia artificial exige una estrecha integración entre todos los aspectos de la plataforma. Como se ha demostrado en las pruebas de referencia de MLPerf, la plataforma de IA de NVIDIA ofrece un rendimiento de liderazgo con la GPU más avanzada del mundo, tecnologías de interconexión potentes y escalables, y software de vanguardia: una solución integral que se puede implementar en el centro de datos, en la nube o en el perímetro con resultados increíbles.

Software optimizado que acelera los flujos de trabajo de IA

Software optimizado que acelera los flujos de trabajo de IA

NGC, componente esencial de los resultados de entrenamiento e inferencia MLPerf y la plataforma de NVIDIA, es un centro de IA optimizado para GPU, computación de alto rendimiento (HPC) y software de análisis de datos que simplifica y acelera los flujos de trabajo de extremo a extremo. Con más de 150 contenedores de nivel empresarial, que incluyen cargas de trabajo para IA conversacional y sistemas de recomendación, más de 100 modelos y SDK específicos del sector que se pueden implementar en el entorno local, en la nube o en el perímetro, NGC permite que los científicos, los investigadores y los desarrolladores de datos creen las mejores soluciones de su clase, recopilen información y aporten valor a la empresa más rápido que nunca.

Infraestructura de IA de nivel de liderazgo

La consecución de resultados de primer nivel en el entrenamiento y las inferencias requiere una infraestructura diseñada expresamente para los desafíos más complejos del mundo. La plataforma IA de NVIDIA se ofrece con la potencia de la GPU NVIDIA A100 Tensor Core, la GPU A30 Tensor Core de NVIDIA, la GPU NVIDIA A10 Tensor Core, y la escalabilidad y flexibilidad de las tecnologías de interconexión de NVIDIA, NVIDIA NVLink®, NVIDIA NVSwitch y NVIDIA ConnectX®-6 VPI. Estos se encuentran en el centro de NVIDIA DGX A100, el motor que respalda nuestra prueba de referencia de rendimiento.

Los sistemas NVIDIA DGX ofrecen la escalabilidad, la rápida implementación y una increíble capacidad de cálculo que permite a todas las empresas crear infraestructuras de IA de nivel de liderazgo.

Infraestructura de IA de nivel de liderazgo

Obtén más información sobre el rendimiento del producto de entrenamiento e inferencia de nuestro centro de datos.