NVIDIA Magnum IO

Subsistema de IO para el centro de datos moderno y acelerado por GPU

Maximización del rendimiento del almacenamiento de centro de datos y de IO de red

La nueva unidad de computación es el centro de datos y en su centro están las GPU NVIDIA y las redes NVIDIA. La aceleración computacional requiere entrada y salida (IO) aceleradas para maximizar el rendimiento. NVIDIA Magnum IO™, el subsistema de IO del centro de datos moderno, es la arquitectura de IO de centro de datos paralelos, asincrónicos e inteligentes, con maximización del almacenamiento y el rendimiento de IO de red para la aceleración multi-GPU y multinodo.

Ventajas clave de Magnum IO

Rendimiento de IO optimizado

Se omite la CPU para permitir la IO directa entre la memoria de la GPU, la red y el almacenamiento, lo que da como resultado un ancho de banda 10 veces superior.

Equilibrio del sistema y utilización

Alivia la contención de la CPU para crear un sistema más equilibrado y acelerado para la GPU que ofrece el máximo ancho de banda de IO, lo que se traduce en hasta 10 veces menos núcleos de CPU y 30 veces menos utilización de la CPU.

Integración transparente

Ofrece una implementación optimizada para las plataformas actuales y futuras, ya sea que las transferencias de datos sean específicas y sensibles a la latencia, de grano grueso y sensibles al ancho de banda o colectivas.

Pila de optimización de Magnum IO

Magnum IO utiliza IO de almacenamiento, IO de red, computación en red y gestión de IO para simplificar y acelerar el movimiento de datos, el acceso y la gestión de sistemas multi-GPU y multi-nodo. Magnum IO es compatible con las bibliotecas de NVIDIA CUDA-X™ y aprovecha al máximo la GPU NVIDIA y las topologías de hardware de red NVIDIA para lograr un rendimiento óptimo y una baja latencia.

 [Developer Blog] Magnum IO - Accelerating IO in the Modern Data Center

Pila de optimización de Magnum IO

IO de almacenamiento

En sistemas multinodo y multi-GPU, el rendimiento lento de la CPU y el único subproceso se encuentra en el camino crítico del acceso a los datos desde los dispositivos de almacenamiento locales o remotos. Con la aceleración de IO de almacenamiento, la GPU elude la CPU y la memoria del sistema, y accede al almacenamiento remoto a través de 8 tarjetas de interfaz de red (NIC) de 200 GB/s, con lo que se consiguen hasta 1,6 Terabits por segundo de ancho de banda de almacenamiento sin procesar.

Tecnologías incluidas:

IO de red

El tejido de NVIDIA NVLink® y la aceleración de IO de red basada en RDMA reducen la sobrecarga de IO, con lo que se omite la CPU y se habilita la GPU directa con las transferencias de datos en la GPU a velocidades de línea.

Tecnologías incluidas:

Computación en red

La computación en red ofrece un procesamiento dentro de la red, lo que elimina la latencia que se introduce al atravesar las terminales y cualquier salto a lo largo del trayecto. Las unidades de procesamiento de datos (DPU) introducen la computación definida por software y acelerada por hardware de red, que incluye motores de procesamiento de datos preconfigurados y motores programables.

Tecnologías incluidas:

Gestión de IO

Para ofrecer optimizaciones de IO a través de la computación, la red y el almacenamiento, los usuarios necesitan técnicas avanzadas de telemetría y solución de problemas. Las plataformas de gestión de Magnum IO permiten a los operadores de centros de datos industriales y de investigación aprovisionar, supervisar, gestionar y mantener preventivamente el tejido del centro de datos moderno.

Tecnologías incluidas:

Aceleración de IO entre aplicaciones

Magnum IO interactúa con las bibliotecas NVIDIA CUDA-X para inteligencia artificial (IA) y computación de alto rendimiento (HPC) que aceleran la IO en una amplia gama de casos de uso, desde la inteligencia artificial a la visualización científica.

  • Análisis de datos
  • Informática de alto rendimiento
  • Deep Learning
Análisis de datos

Análisis de datos

Actualmente, la ciencia de datos y el aprendizaje automático (ML) son los mayores segmentos de computación del mundo. Modestas mejoras en la precisión de los modelos predictivos de ML pueden convertirse en miles de millones de dólares en el balance final. Para mejorar la precisión, la biblioteca de RAPIDS Accelerator lleva incorporada una implementación aleatoria de Apache Spark acelerada que se basa en UCX y se puede configurar para aprovechar la comunicación de GPU a GPU y las capacidades de RDMA. Gracias a la combinación de la conexión a red NVIDIA,  el software Magnum IO, Spark 3.0 acelerado por GPU y NVIDIA RAPIDS™, la plataforma de centro de datos NVIDIA se encuentra en una posición única para acelerar estas enormes cargas de trabajo con niveles de rendimiento y eficiencia sin precedentes.

 Adobe multiplica por siete la aceleración del entrenamiento de modelos con Spark 3.0 en Databricks con un ahorro del 90 % en costes

 Un rendimiento 19,5 veces más rápido en TPCx-BB, avances en UCX y en el software de ciencias de datos RAPIDS en NVIDIA DGX™ A100

Computación de alto rendimiento

Computación de alto rendimiento

La HPC es un pilar fundamental de la ciencia moderna. Para hacer descubrimientos de próxima generación, los científicos dependen de la simulación para comprender mejor las moléculas complejas de cara al descubrimiento de fármacos, de la física en busca de fuentes potenciales de energía y de los datos atmosféricos con objeto de predecir y prepararse mejor para patrones climáticos extremos. Magnum IO expone motores de aceleración a nivel de hardware y descargas inteligentes, como RDMA, NVIDIA GPUDirect®y las funciones NVIDIA SHARP™ (Scalable Hierarchical Aggregation and Reduction Protocol), a la vez que refuerza el ancho de banda alto y la latencia ultrabaja de HDR InfiniBand de 200 GB/s. Esto ofrece las implementaciones de HPC y ML de máximo rendimiento y máxima eficiencia a cualquier escala.

La visualización de volúmenes interactiva más grande del mundo: simulación de aterrizaje en Marte de la NASA (150 TB)

Deep Learning

Deep Learning

La complejidad de los modelos de IA se dispara a medida que estos se enfrentan a desafíos de nivel superior, como la IA conversacional y los sistemas de recomendación profundos. Los modelos de IA conversacional como Megatron-BERT de NVIDIA controlan 3000 veces más potencia de cálculo para entrenar en comparación con los modelos de clasificación de imágenes como ResNet-50. Permitir que los investigadores sigan ampliando los límites de lo que es posible con la inteligencia artificial requiere un rendimiento potente y una enorme escalabilidad. La combinación de redes HDR InfiniBand de 200 GB/s y la pila de software de Magnum IO ofrece escalabilidad eficiente a miles de GPU en un solo clúster. 

Entrenamiento de Deep Learning en los centros de datos de Facebook: diseño de sistemas de escalado vertical y ampliación

Suscríbete para recibir noticias y actualizaciones.