El Sistema Universal para la Infraestructura de IA
NVIDIA DGX™ A100 es el sistema universal para todas las cargas de trabajo de IA, que ofrece una densidad de procesamiento, rendimiento y flexibilidad sin precedentes en el primer sistema de 5 petaFLOPS de IA del mundo. NVIDIA DGX A100 cuenta con la GPU NVIDIA A100 Tensor Core, por lo que permite a las empresas consolidar el entrenamiento, la inferencia y el análisis en una infraestructura de IA unificada y fácil de implementar, que incluye acceso directo a expertos en IA de NVIDIA.
NVIDIA DGX A100 es el sistema universal para toda la infraestructura de IA, desde el análisis hasta el entrenamiento y la inferencia. DGX A100 funciona con NVIDIA Base Command, el sistema operativo del data center acelerado. Establece un nuevo nivel de densidad de cálculo, con 5 petaFLOPS de rendimiento de IA en un formato de 6U, sustituyendo los silos de infraestructura heredados por una plataforma para cada carga de trabajo de IA.
Los expertos de NVIDIA DGX son un equipo global de más de 20,000 profesionales de IA, que acumularon una vasta experiencia a lo largo de la última década para ayudarte a maximizar el valor de tu inversión de DGX.
NVIDIA DGX A100 es el primer sistema de IA del mundo construido sobre la GPU NVIDIA A100 Tensor Core. Al integrar ocho GPUs A100 con 320GB o 640GB de memoria GPU, el sistema proporciona una aceleración sin precedentes y está totalmente optimizado para el software NVIDIA CUDA-X™ y el stack de soluciones de data center de NVIDIA de extremo a extremo.
NVIDIA DGX A100 cuenta con adaptadores de red NVIDIA® ConnectX®-7 InfiniBand/Ethernet con 500 gigabytes por segundo (GB/s) de ancho de banda bidireccional pico. Esta es una de las muchas funciones que convierten a DGX A100 en el componente fundamental para los clústeres de IA grandes, como NVIDIA DGX SuperPOD™, el plan empresarial para la infraestructura de IA escalable.
El Kit de Inicio de IA de NVIDIA proporciona todo lo que tu equipo necesita, desde una plataforma de IA de lase mundial, hasta el software y las herramientas optimizadas y servicios de consulta, para que tus iniciativas de IA se ejecuten rápidamente. No pierdas tiempo ni dinero construyendo una plataforma de IA. Enchufa y potencia en un día, define los casos de uso en una semana y comienza a crear productos con los modelos antes.
Entrenamiento de DLRM
Un Rendimiento hasta 3 veces más alto para el Entrenamiento de IA en los Modelos Más Grandes
DLRM en framework HugeCTR, precisión = FP16 | 1x DGX A100 640GB tamaño de lote = 48 | 2x DGX A100 320GB tamaño de lote = 32 | 1x DGX-2 (16x V100 32GB) tamaño de lote = 32. Velocidades Normalizadas a la Cantidad de GPU.
Inferencia de RNN-T: Transmisión Única
Un Rendimiento hasta 1.25 veces más alto para la Inferencia de IA
MLPerf 0.7 RNN-T medido con (1/7) rebanadas MIG. Framework: TensorRT 7.2, conjunto de datos = LibriSpeech, precisión = FP16.
Evaluación de Análisis de Big Data
Un Rendimiento hasta 83 veces más alto que la CPU, Un Rendimiento hasta 2 veces más alto que la DGX A100 de 320 GB
Evaluación de análisis de big data | 30 consultas de venta minorista de análisis, ETL, ML, NLP en conjuntos de datos de 10 TB | CPU: 19 Intel Xeon Gold 6252 2.10 GHz, Hadoop | 16 DGX-1 (8 V100 de 32 GB cada una), RAPIDS/Dask | 12 DGX A100 de 320 GB y 6 DGX A100 de 640 GB, RAPIDS/Dask/BlazingSQL. Velocidades Normalizadas a la Cantidad de GPU
18 GPU NVIDIA A100 con hasta 640 GB de Memoria de GPU Total 12 NVLinks/GPU, Ancho de Banda Bidireccional de GPU a GPU de 600 GB/s
26 NVIDIA NVSwitches Ancho de banda bidireccional de 4.8 TB/s, el Doble que NVSwitch de la Generación Anterior
3 INTERFAZ DE RED NVIDIA CONNECTX-7 200Gb/s de hasta 10X Ancho de Banda Bidireccional Máximo de 500 GB/s
4 CPU AMD dobles de 64 Cores y 2 TB de Memoria del Sistema 3.2 Veces Más Cores para Impulsar los Trabajos de IA Más Intensivos
5 SSD Gen4 NVME de 30 TB Ancho de Manda Máximo de 50 GB/s, 2 Veces Más Rápido que los SSD Gen3 NVME
Explora en detalle la nueva NVIDIA DGX A100.
La GPU NVIDIA A100 Tensor Core ofrece una aceleración sin precedentes para la IA, el análisis de datos y la computación de alto rendimiento (HPC) a fin de resolver los desafíos de computación más difíciles del mundo. Con los NVIDIA Tensor Core de tercera generación que proporcionan un enorme aumento de rendimiento, la GPU A100 puede escalar de forma eficiente hasta miles o, con la GPU de Múltiples Instancias, asignarse como siete instancias más pequeñas y dedicadas para acelerar las cargas de trabajo de todos los tamaños.
Con MIG, las ocho GPU A100 en DGX A100 se pueden configurar en hasta 56 instancias de GPU, cada una completamente aislada con sus propios núcleos de computación, caché y memoria de alto ancho de banda. Esto permite a los administradores usar unas GPU de tamaño adecuado con calidad de servicio (QoS) garantizada para varias cargas de trabajo.
La tercera generación de NVIDIA® NVLink™ en DGX A100 duplica el ancho de banda directo entre GPU a 600 gigabytes por segundo (GB/s), casi 10 veces más que PCIe Gen4. DGX A100 también cuenta con NVIDIA NVSwitch™ de próxima generación, que es 2 veces más rápida que la generación anterior.
DGX A100 cuenta con los adaptadores NVIDIA ConnectX-7 InfiniBand y VPI (Infiniband o Ethernet), cada uno funciona a 200 gigabits por segundo (Gb/s) para crear una estructura de alta velocidad para cargas de trabajo de IA a gran escala.
DGX A100 integra una pila de software de DGX probada y optimizada, lo que incluye un sistema operativo de base ajustado para la IA, todo el software del sistema necesario y aplicaciones aceleradas por GPU, modelos previamente entrenados y más, de NGC™.
DGX A100 ofrece la postura de seguridad más robusta para las implementaciones de IA, con un enfoque de varias capas que se extiende a través del controlador de administración de la placa base (BMC), la placa de CPU, la placa de GPU, las unidades autoencriptadas y el arranque seguro.
Obtén más información sobre el soporte de grado empresarial de los sistemas NVIDIA DGX.
Infraestructura de IA Líder
Opcional
Política de Privacidad de NVIDIA