El sistema universal para la infraestructura de IA
NVIDIA DGX™ A100 es el sistema universal para todas las cargas de trabajo de IA, que ofrece una densidad de cálculo, un rendimiento y una flexibilidad sin precedentes en el primer sistema de IA de 5 petaFLOPS del mundo. Con la GPU NVIDIA A100 Tensor Core, DGX A100 permite a las empresas consolidar entrenamiento, inferencia y análisis en una infraestructura de IA unificada y fácil de implementar, que incluye acceso directo a los expertos en IA de NVIDIA.
NVIDIA DGX A100 es el sistema universal para toda la infraestructura de IA, desde el análisis hasta el entrenamiento y la inferencia. DGX A100 cuenta con tecnología de NVIDIA Base Command, el sistema operativo del centro de datos acelerado. Marca un nuevo hito en cuanto a la densidad de cálculo al incluir 5 petaFLOPS de rendimiento de IA en un formato 6U, que sustituye los silos de infraestructura heredados por una única plataforma para todas las cargas de trabajo de IA.
NVIDIA DGXperts es un equipo mundial de más de 20 000 profesionales expertos en IA que han diseñado una gran experiencia en la última década para ayudarte a maximizar el valor de tu inversión en DGX.
NVIDIA DGX A100 es el primer sistema de IA del mundo que incorpora la GPU NVIDIA A100 Tensor Core. Al integrar ocho GPU A100 con 320 GB o 640 GB de memoria de GPU, el sistema proporciona una aceleración sin precedentes y está totalmente optimizado para el software NVIDIA CUDA-X™ y la pila de soluciones de centro de datos de NVIDIA de extremo a extremo.
NVIDIA DGX A100 cuenta con adaptadores de red NVIDIA® ConnectX-7® InfiniBand/Ethernet con 500 gigabytes por segundo (GB/s) de ancho de banda bidireccional máximo. Esta es una de las muchas características que hacen de DGX A100 el elemento esencial para grandes clústeres de IA como NVIDIA DGX SuperPOD™, la base empresarial de la infraestructura de IA escalable.
NVIDIA IA Starter Kit proporciona todo lo que tu equipo necesita, desde una plataforma de nivel internacional para IA, pasando por herramientas y software optimizados, hasta servicios de asesoría, para poner en marcha tus iniciativas de IA rápidamente. No pierdas tiempo y dinero creando una plataforma de IA. Conecta y ponte en marcha en un día, obtén casos de uso definidos en una semana y empieza a aplicar los modelos a la producción antes.
Entrenamiento de DLRM
Hasta el triple de rendimiento para entrenamiento de IA en modelos más grandes
DLRM on HugeCTR framework, precision = FP16 | 1x DGX A100 640GB batch size = 48 | 2x DGX A100 320GB batch size = 32 | 1x DGX-2 (16x V100 32GB) batch size = 32. Aumentos de velocidad normalizados según el número de GPU.
Inferencia RNN-T: flujo único
Hasta 1,25 veces más rendimiento para la inferencia de IA
MLPerf 0.7 RNN-T measured with (1/7) MIG slices. Framework: TensorRT 7.2, dataset = LibriSpeech, precision = FP16.
Prueba de rendimiento de análisis de datos masivos
Hasta 83 veces más rendimiento que la CPU, doble de rendimiento que DGX A100 de 320 GB
Prueba de rendimiento de análisis de datos masivos | 30 consultas de establecimientos analíticas, ETL, ML, NLP en un conjunto de datos de 10 TB | CPU: 19 x Intel Xeon Gold 6252 a 2,10 GHz, Hadoop | 16 x DGX-1 (8 x V100 de 32 GB cada una), RAPIDS/Dask | 12 x DGX A100 de 320 GB y 6 x DGX A100 de 640 GB, RAPIDS/Dask/BlazingSQL. Aumentos de velocidad normalizados según el número de GPU
18 GPU NVIDIA A100 con hasta 640 GB de memoria GPU total 12 NVLinks/GPU, ancho de banda bidireccional de GPU a GPU de 600 GB/s
26 NVIDIA NVSwitches Ancho de banda bidireccional de 4,8 TB/s, el doble que la generación anterior de NVSwitch
3Hasta 10 interfaces de red NVIDIA Connectx-7 200Gb/s Ancho de banda bidireccional máximo de 500 GB/s
4 CPU AMD de 64 núcleos duales y memoria del sistema de 2 TB 3,2 veces más núcleos para impulsar los trabajos de IA más intensivos
5 SSD NVME Gen4 de 30 TB Ancho de banda máximo de 50 GB/s, el doble de rápido que los SSD NVME Gen3
Profundizar en la nueva NVIDIA DGX A100.
La GPU NVIDIA A100 Tensor Core ofrece una aceleración sin precedentes para que la IA, el análisis de datos y la computación de alto rendimiento puedan hacer frente a los desafíos computacionales más difíciles del mundo. Con la tercera generación de Tensor Cores de NVIDIA, que proporcionan un gran aumento del rendimiento, la GPU A100 puede escalar eficientemente hasta miles de GPU o, con GPU multiinstancia, puede dividirse en siete instancias dedicadas más pequeñas para acelerar las cargas de trabajo de todos los tamaños.
Con MIG, las ocho GPU A100 de DGX A100 se pueden dividir en hasta 56 instancias de GPU, cada una de ellas totalmente aislada y con su propia memoria de ancho de banda alto, su propia caché y sus propios núcleos de procesamiento. Esto permite a los administradores ajustar el tamaño de las GPU con una calidad de servicio garantizada para diversas cargas de trabajo.
La tercera generación de NVIDIA® NVLink™ en DGX A100 duplica el ancho de banda directo de GPU a GPU a 600 gigabytes por segundo (GB/s), casi 10 veces más alto que PCIe Gen4. DGX A100 también cuenta con NVIDIA NVSwitch™ de próxima generación, que es 2 veces más rápido que la generación anterior.
DGX A100 cuenta con los adaptadores NVIDIA ConnectX-7 InfiniBand y VPI (InfiniBand o Ethernet), cada uno de los cuales se ejecuta a 200 Gb/s a fin de crear un tejido de alta velocidad para cargas de trabajo de IA a gran escala. Los sistemas DGX A100 también están disponibles con adaptadores ConnectX-6.
DGX A100 integra una pila de software DGX probada y optimizada, que incluye un sistema operativo base adaptado para IA, todo el software del sistema necesario y aplicaciones aceleradas por GPU, modelos previamente entrenados y mucho más, todo ello de NGC™.
DGX A100 ofrece la posición de seguridad más sólida para las implementaciones de IA, con un enfoque de varias capas que se extiende por el controlador de administración de placa base (BMC), la placa de CPU, la placa de GPU, las unidades autocifradas y el arranque seguro.
Obtén información sobre la compatibilidad de nivel empresarial para sistemas NVIDIA DGX.
Infraestructura de IA de nivel de liderazgo
Política de privacidad de NVIDIA