Evaluaciones MLPerf

Las soluciones de entrenamiento e inferencia de NVIDIA ofrecen un rendimiento récord en MLPerf, la evaluación líder en la industria para el rendimiento de IA.

¿Qué es MLPerf?

MLPerf es un grupo de líderes de IA de la industria, laboratorios de investigación e instituciones académicas cuya misión es "desarrollar evaluaciones útiles e imparciales", que proporcionen pruebas sin sesgos (que se llevan a cabo bajo condiciones prescritas) para el rendimiento de la inferencia y el entrenamiento del hardware, el software y los servicios. Para seguir a la vanguardia de las tendencias de la industria, MLPerf sigue evolucionando y realiza nuevas pruebas de forma periódica. También agrega nuevas cargas de trabajo que representan lo último en IA.

La Universidad de Chalmers es una de las principales instituciones de investigación en Suecia, especializada en múltiples áreas, desde la nanotecnología hasta los estudios climáticos. A medida que incorporamos la IA para avanzar en nuestros esfuerzos de investigación, encontramos que la  evaluación MLPerf proporciona una comparación transparente y equivalente a través de múltiples plataformas de IA para mostrar el rendimiento real en diversos casos de uso del mundo real.

— Universidad Tecnológica de Chalmers, Suecia

TSMC está impulsando la vanguardia de la fabricación global de semiconductores, como nuestro último nodo de 5 nm que lidera el mercado en tecnología de procesos. Innovaciones como la litografía basada en machine learning y el modelado de grabado mejoran significativamente nuestra corrección óptica de proximidad (OPC) y la precisión de la simulación de grabado. Para aprovechar al máximo el potencial de machine learning en el entrenamiento y la inferencia de modelos, estamos trabajando con el equipo de ingeniería de NVIDIA para incorporar nuestro motor de tecnología de simulación y litografía inversa Maxwell en las GPU y ver aceleraciones muy significativas. La evaluación MLPerf es un factor importante en nuestra toma de decisiones.

— Dr. Danping Peng, Director, Departamento de OPC, TSMC, San José, CA, EE. UU.

La visión de computación y las imágenes son el núcleo de la investigación de la IA, impulsan el descubrimiento científico y representan los componentes centrales de la atención médica. Hemos trabajado estrechamente con NVIDIA para lanzar innovaciones como 3DUNet al mercado de la salud. Las evaluaciones MLPerf estándar de la industria proporcionan datos de rendimiento relevantes en beneficio de las organizaciones y desarrolladores de TI para obtener la solución adecuada, lo que permite acelerar sus proyectos y aplicaciones específicos.

— Prof. Dr. Klaus Maier-Hein (Jefe de Computación de Imágenes Médicas, Deutsches Krebsforschungszentrum (DKFZ, Centro Alemán de Investigación del Cáncer)

Como líder preeminente en investigación y fabricación, Samsung utiliza la IA para aumentar enormemente el rendimiento del producto y la productividad en la fabricación. Aprovechar estos avances de IA en la producción requiere que tengamos la mejor plataforma de computación disponible. La evaluación MLPerf agiliza nuestro proceso de selección al proporcionarnos un método de evaluación abierto y directo para evaluar uniformemente a todos los proveedores de plataformas.

— Samsung Electronics

Categorías de Participación de MLPerf

MLPerf cuenta con ocho cargas de trabajo diferentes que abarcan diversos casos de uso, lo que incluye visión, idioma, recomendadores y aprendizaje de refuerzo.

MLPerf Inference evalúa siete casos de uso diversos en siete tipos de redes neuronales diferentes. Tres de estos casos de uso son para visión de computación, uno para sistemas de recomendación, dos para procesamiento de idiomas y uno para imágenes médicas.

Clasificación de Imágenes

Clasificación de Imágenes

Asigna una etiqueta de un conjunto fijo de categorías a una imagen de entrada, es decir, se aplica a problemas de visión de computación. detalles.

Detección de Objetos (Poco Exigente)

Detección de Objetos (Poco Exigente)

Encuentra instancias de objetos del mundo real, como caras, bicicletas y edificios, en imágenes o videos, y especifica un cuadro delimitador alrededor de cada uno. detalles.

Detección de Objetos (Exigente)

Detección de Objetos (Exigente)

Detecta distintos objetos de interés que aparecen en una imagen e identifica una máscara de píxeles para cada uno. detalles.

Segmentación de Imágenes Biomédicas

Segmentación de Imágenes Biomédicas

Realiza una segmentación volumétrica de imágenes 3D densas para casos de uso médico. detalles.

Traducción (Recurrente)

Traducción (Recurrente)

Traduce texto de un idioma a otro utilizando una red neuronal recurrente (RNN). detalles.

Reconocimiento Automático de Voz (ASR)

Reconocimiento Automático de Voz (ASR)

Reconocer y transcribir audio en tiempo real. detalles.

Procesamiento de Idiomas Naturales (NLP)

Procesamiento de Idiomas Naturales (NLP)

Entiende el texto mediante el uso de la relación entre diferentes palabras en un bloque de texto. Permite responder preguntas, parafrasear oraciones y muchos otros casos de uso relacionados con los idiomas. detalles.

Recomendación

Recomendación

Ofrece resultados personalizados en servicios orientados al usuario, como redes sociales o sitios web de comercio electrónico, al comprender las interacciones entre los usuarios y los elementos de servicio, como productos o anuncios. detalles.

Aprendizaje de Refuerzo

Aprendizaje de Refuerzo

Evalúa diferentes acciones posibles para maximizar la recompensa utilizando el juego de estrategia Go en una cuadrícula de 19 × 19. detalles.

Resultados de NVIDIA en las Evaluaciones MLPerf

  • Entrenamiento

    Entrenamiento

  • Inferencia

    Inferencia

La GPU NVIDIA A100 Tensor Core y la NVIDIA DGX SuperPOD establecen los 16 récords de rendimiento de entrenamiento, tanto en cargas de trabajo por chip como a escala. Este rendimiento revolucionario, junto con una mejora en la tasa de transferencia en cuatro presentaciones de MLPerf, es posible gracias a una estrecha integración entre el hardware , el software y las tecnologías del sistema, además de la inversión continua de NVIDIA en el rendimiento de pila completa. La plataforma NVIDIA sobresale tanto en rendimiento como en usabilidad, ya que ofrece una única plataforma de liderazgo desde el data center hasta el edge y el cloud.

AUMENTO DE MÁS DE 20 VECES DEL RENDIMIENTO EN 3 AÑOS DE MLPERF

La Innovación Full-Stack de NVIDIA Ofrece Mejoras Continuas

Evaluaciones de Rendimiento de Entrenamiento de MLPerf

NVIDIA ESTABLECE LOS 16 RÉCORDS

Para Soluciones Disponibles Comercialmente

La plataforma de IA de NVIDIA estableció los 8 récords por acelerador utilizando GPU NVIDIA A100 en servidores OEM, así como NVIDIA DGX. Esto demuestra la fortaleza de la pila integral de hardware y software NVIDIA que permite a los fabricantes de computadoras ofrecer resultados récord en MLPerf.

EVALUACIÓN Récords a Escala (min) Récords por Acelerador (min)
Recomendación (DLRM) 0.63 (DGX SuperPOD) 13.5 (A100)
NLP (BERT) 0.24 (DGX SuperPOD) 155.1 (A100)
Reconocimiento de Voz (Recurrente) (RNN-T) 2.38 (DGX SuperPOD) 267.0 (A100)
Detección de Objetos (Exigente) (Mask R-CNN) 3.24 (DGX SuperPOD) 335.1 (A100)
Detección de Objetos (Exigente) (SSD) 0.45 (DGX SuperPOD) 63.8 (A100)
Clasificación de Imágenes (ResNet-50 v1.5) 0.35 (DGX SuperPOD) 220.5 (A100)
Segmentación de Imágenes (3D-Unet) 1.26 (Microsoft Azure NDm A100 v4) 187.7 (A100)
Aprendizaje de Refuerzo (MiniGo) 15.47 (DGX SuperPOD) 1805.2 (A100)

NVIDIA logró los mejores resultados de rendimientoen todos los escenarios (servidor de data center y sin conexión, así como en el edge de flujo único, varios flujos y sin conexión). Además, ofreció el mejor rendimiento por acelerador entre todos los productos probados en todas las evaluaciones. Estos resultados son un testimonio, no solo del liderazgo en rendimiento de inferencia de NVIDIA, sino también de la versatilidad de nuestra plataforma de inferencia.

Escenario sin conexión para data center y edge (GPU única)

  NVIDIA A100 (CPU x86)
(Inferencias/Segundo)
NVIDIA A100 (CPU Arm)
(Inferencias/Segundo)
NVIDIA A30
(Inferencias/Segundo)
NVIDIA® Jetson Xavier
(Inferencias Máximas/Consulta)
DLRM
(Recomendador)
312,380 281,283 138,194 N/A*
BERT
(Procesamiento de Idiomas Naturales)
3,490 3,149 1,668 476
ResNet-50 v1.5
(Clasificación de Imágenes)
39,160 36,487 18,406 6,139
ResNet-34
(Detector Grande de un Solo Disparo)
990 906 478 208
RNN-T
(Reconocimiento del Habla)
13,344 13,188 6,557 1,110
U-Net 3D
(Generación de Imágenes Médicas)
3 3 2 0.5

La Tecnología Detrás de los Resultados

La complejidad de la IA exige una estrecha integración entre todos los aspectos de la plataforma. Como quedó demostrado en las evaluaciones de MLPerf, la plataforma de IA de NVIDIA ofrece un rendimiento líder con la GPU más avanzada del mundo, tecnologías de interconexión potentes y escalables, y software de vanguardia. Por lo tanto, es una solución integral que se puede implementar en el data center, en el cloud o en el edge de la red con resultados increíbles.

Modelos Previamente Entrenados y Software Optimizado de NVIDIA NGC

Software Optimizado que Acelera los Workflows de IA

NGC es un componente esencial de la plataforma de NVIDIA y de los resultados de entrenamiento e inferencia de MLPerf, ya que es un centro para IA optimizado por GPU para el software de análisis de datos, IA y computación de alto rendimiento (HPC) que simplifica y acelera los workflows integrales. NGC permite a los científicos de datos, investigadores y desarrolladores crear las mejores soluciones de su clase, recopilar información y ofrecer valor comercial más rápido que nunca, ya que cuenta con más de 150 contenedores de nivel empresarial, incluidas cargas de trabajo para IA conversacional y sistemas de recomendación, más de 100 modelos y SDK específicos de la industria que se pueden implementar en las instalaciones, en el cloud o en el edge.

Infraestructura de IA Líder

Lograr resultados increíbles en las evaluaciones de entrenamiento e inferencia requiere una infraestructura que se haya diseñado específicamente para los desafíos de IA más complejos del mundo. La plataforma de IA de NVIDIA se entregó utilizando la potencia de la GPU NVIDIA A100 Tensor Core, la GPU NVIDIA A30 Tensor Core, la GPU NVIDIA A2 Tensor Core y el módulo Jetson AGX Orin, junto con la escalabilidad y la flexibilidad de las tecnología de interconexión de NVIDIA: NVIDIA NVLink®, NVIDIA NVSwitch y la VPI NVIDIA ConnectX®-6. Estos componentes son la base de la NVIDIA DGX™ A100, el motor detrás de nuestro rendimiento récord.

Los sistemas NVIDIA DGX ofrecen la escalabilidad, implementación rápida y potencia de computación increíble que permiten a cada empresa desarrollar una infraestructura de IA líder.

GPU NVIDIA Tensor Core

Obtén más información sobre el rendimiento de nuestros productos de entrenamiento e inferencia en data centers.