El sistema universal para la infraestructura de IA
NVIDIA DGX™ A100 es el sistema universal para todas las cargas de trabajo de IA, que ofrece una densidad de computación, rendimiento y flexibilidad sin precedentes en el primer sistema de IA de 5 petaFLOPS del mundo. NVIDIA DGX A100 cuenta con el acelerador más avanzado del mundo, la GPU NVIDIA A100 Tensor Core, que permite a las empresas consolidar formación, inferencia y análisis en una infraestructura de IA unificada y fácil de implementar, que incluye acceso directo a los expertos de IA de NVIDIA.
NVIDIA DGX A100 es el sistema universal para toda la infraestructura de IA, desde el análisis hasta la formación y la inferencia. Marca un nuevo hito en cuanto a la densidad de cálculo al incluir 5 petaFLOPS de rendimiento de IA en un formato 6U, que sustituye los silos de infraestructura heredados por una única plataforma para todas las cargas de trabajo de IA.
Los NVIDIA DGXperts son un equipo global de más de 16 000 profesionales expertos en IA que han alcanzado el máximo grado de experiencia a lo largo de la última década para ayudarte a maximizar el valor de tu inversión en DGX.
NVIDIA DGX A100 es el primer sistema del mundo que incorpora la GPU NVIDIA A100 Tensor Core. El sistema, Integración de ocho GPU A100 con hasta 640 GB de memoria de GPU , proporciona una aceleración sin precedentes y está totalmente optimizado para el software NVIDIA CUDA-X™ y la pila completa de soluciones del centro de datos de NVIDIA.
NVIDIA DGX A100 cuenta con redes Mellanox integradas con 500 gigabytes por segundo (GB/s) de ancho de banda bidireccional máximo. Esta es una de las muchas características que hacen de DGX A100 el elemento esencial para grandes clústeres de IA como NVIDIA DGX SuperPOD™, la base empresarial de la infraestructura de IA escalable.
NVIDIA IA Starter Kit proporciona todo lo que tu equipo necesita, desde una plataforma de nivel internacional para IA, pasando por herramientas y software optimizados, hasta servicios de asesoría, para poner en marcha tus iniciativas de IA rápidamente. No pierdas tiempo y dinero creando una plataforma de IA. Conecta y ponte en marcha en un día, obtén casos de uso definidos en una semana y empieza a aplicar los modelos a la producción antes.
Más información sobre los sistemas NVIDIA DGX A100
Entrenamiento de DLRM
Hasta 3 veces más de rendimiento en el entrenamiento de IA en modelos más grandes
DLRM en entorno de trabajo HugeCTR, precisión = FP16 | tamaño de lote 1 x DGX A100 de 640 GB = 48 | tamaño de lote 2 x DGX A100 de 320 GB = 32 | tamaño de lote 1 x DGX-2 (16 x V100 de 32 GB) = 32. Aumentos de velocidad normalizados según el número de GPU.
Inferencia RNN-T: flujo único
Rendimiento hasta 1,25 veces mayor para la inferencia de IA
MLPerf 0.7 RNN-T medido con (1/7) segmentos MIG. Entorno de trabajo: TensorRT 7.2, conjunto de datos = LibriSpeech, precisión = FP16.
Prueba de rendimiento de análisis de datos masivos
Rendimiento hasta 83 veces mayor que la CPU, el doble de rendimiento que DGX A100 de 320 GB
Prueba de rendimiento de análisis de datos masivos | 30 consultas de establecimientos analíticas, ETL, ML, NLP en un conjunto de datos de 10 TB | CPU: 19 x Intel Xeon Gold 6252 a 2,10 GHz, Hadoop | 16 x DGX-1 (8 x V100 de 32 GB cada una), RAPIDS/Dask | 12 x DGX A100 de 320 GB y 6 x DGX A100 de 640 GB, RAPIDS/Dask/BlazingSQL. Aumentos de velocidad normalizados según el número de GPU
1 8 GPU en el NVIDIA A100 con 640 GB de memoria GPU total 12 NVLinks por GPU, 600 GB/s de ancho de banda de GPU a GPU.
2 6 NVSwitches de segunda generación 4,8 TB/s de ancho de banda bidireccional, 2 veces más que la generación anterior.
3 10 Mellanox ConnectX-6 VPI HDR InfiniBand/Ethernet de 200 Gb 500 GB/s de ancho de banda bidireccional máximo.
4 CPU AMD de 64 núcleos duales y memoria del sistema de 2 TB 2,7 veces más cantidad de núcleos para impulsar los trabajos de IA más intensivos
5 SSD NVME Gen4 de 30 TB 50 GB/s de ancho de banda máximo, 2 veces más rápido que los SSD NVME Gen3.
Profundizar en la nueva NVIDIA DGX A100.
La GPU NVIDIA A100 Tensor Core ofrece una aceleración sin precedentes para que la IA, el análisis de datos y la computación de alto rendimiento puedan hacer frente a los desafíos computacionales más difíciles del mundo. Con la tercera generación de Tensor Cores de NVIDIA, que proporcionan un gran aumento del rendimiento, la GPU A100 puede escalar eficientemente hasta miles de GPU o, con GPU multiinstancia, puede dividirse en siete instancias dedicadas más pequeñas para acelerar las cargas de trabajo de todos los tamaños.
Con MIG, las ocho GPU A100 de DGX A100 se pueden dividir en hasta 56 instancias de GPU, cada una de ellas totalmente aislada y con su propia memoria de ancho de banda alto, su propia caché y sus propios núcleos de procesamiento. Esto permite a los administradores ajustar el tamaño de las GPU con una calidad de servicio garantizada para diversas cargas de trabajo.
La tercera generación de NVIDIA® NVLink™ en DGX A100 duplica el ancho de banda directo de GPU a GPU hasta 600 gigabytes por segundo, casi 10 veces mayor que PCIe Gen4. DGX A100 también cuenta con NVIDIA NVSwitch™ de última generación, que es 2 veces más rápido que la generación anterior.
DGX A100 cuenta con los últimos adaptadores Mellanox ConnectX-6 HDR InfiniBand/Ethernet, cada uno de los cuales se ejecuta a 200 Gb/s para crear un tejido de alta velocidad para cargas de trabajo de IA a gran escala.
DGX A100 integra una pila de software DGX probada y optimizada, que incluye un sistema operativo base adaptado para IA, todo el software del sistema necesario y aplicaciones aceleradas por GPU, modelos previamente entrenados y mucho más, todo ello de NGC™.
DGX A100 ofrece la posición de seguridad más sólida para las implementaciones de IA, con un enfoque de varias capas que protege todos los componentes de hardware y software principales, incluidas las unidades de autoencriptación, los contenedores de software firmados, una gestión y una supervisión seguras y mucho más.
Obtén información sobre la compatibilidad de nivel empresarial para sistemas NVIDIA DGX.
Infraestructura de IA de nivel de liderazgo
Política de privacidad