O Sistema Universal para Infraestrutura de AI
A NVIDIA DGX™ A100 é o sistema universal para todas as cargas de trabalho de AI, oferecendo densidade de computação, desempenho e flexibilidade sem precedentes no primeiro sistema de 5 petaFLOPS AI do mundo. A NVIDIA DGX A100 apresenta o acelerador mais avançado do mundo, a GPU NVIDIA A100 Tensor Core, permitindo que as empresas consolidem treinamento, inferência e análise em uma infraestrutura de AI unificada e fácil de implantar, que inclui acesso direto aos especialistas em AI da NVIDIA.
A NVIDIA DGX A100 é o sistema universal para toda a infraestrutura de AI, desde análises até treinamento e inferência. Ele define um novo padrão para a densidade de computação, agregando 5 petaFLOPS de desempenho em AI em um tamanho de 6U, substituindo os silos de infraestrutura herdados por uma plataforma para cada carga de trabalho de AI.
O NVIDIA DGXperts é uma equipe global de mais de 16.000 profissionais fluentes em AI que construíram uma vasta experiência na última década para ajudá-lo a maximizar o valor do seu investimento em DGX.
A NVIDIA DGX A100 é o primeiro sistema de AI do mundo construído na GPU NVIDIA A100 Tensor Core. Integrando oito GPUs A100 com até 640 GB de memória GPU, o sistema fornece aceleração sem precedentes e é totalmente otimizado para o software NVIDIA CUDA-X™ e o pacote de soluções completas da NVIDIA para data center.
O NVIDIA DGX A100 possui adaptadores de rede Mellanox ConnectX-6 VPI HDR InfiniBand/Ethernet com 500 gigabytes por segundo (GB/s) de largura de banda bidirecional de pico. Esse é um dos muitos recursos que fazem da DGX A100 o alicerce fundamental para grandes clusters de AI, como a NVIDIA DGX SuperPOD™, o modelo corporativo de infraestrutura de AI escalável.
O NVIDIA AI Starter Kit oferece tudo o que sua equipe precisa, de uma plataforma de AI de classe mundial a software e ferramentas otimizadas e serviços de consultoria. Tudo para que você possa começar rapidamente com suas iniciativas de AI. Não perca tempo e dinheiro construindo uma plataforma de AI, conecte o sistema em um dia, defina os casos de uso em uma semana e comece a produzir modelos mais cedo.
Saiba mais sobre os sistemas NVIDIA DGX A100
Treinamento DLRM
Taxa de Transferência até 3 vezes Maior para Treinamento de AI em Modelos Maiores
DLRM no framework HugeCTR, precisão = FP16 | 1x DGX A100 tamanho do lote de 640 GB = 48 | 2x DGX A100 tamanho de lote de 320 GB = 32 | 1x DGX-2 (16x V100 32GB) tamanho do lote = 32. Acelerações normalizadas para número de GPUs.
Inferência RNN-T: Stream Único
Taxa de Transferência até 1,25 vez Maior para Inferência de IA
MLPerf 0,7 RNN-T medido com fatias MIG (1/7). Framework: TensorRT 7.2, conjunto de dados = LibriSpeech, precisão = FP16.
Benchmark de Análise de Big Data
Taxa de Transferência até 83 vezes Maior do que uma CPU, Taxa de Transferência 2 vezes Maior do que a DGX A100 320 GB
Referência de análise de big data | 30 consultas analíticas de varejo, ETL, ML, NLP em conjunto de dados de 10 TB | CPU: 19x Intel Xeon Gold 6252 2,10 GHz, Hadoop | 16x DGX-1 (8x V100 32GB cada), RAPIDS / Dask | 12x DGX A100 320 GB e 6x DGX A100 640 GB, RAPIDS / Dask / BlazingSQL. Acelerações normalizadas para o número de GPUs
1 8X GPUS NVIDIA A100 COM MEMÓRIA GPU TOTAL DE 640GB 12 NVLinks /GPU, Largura de Banda Bidirecional de 600 GB/s GPU para GPU
2 6x NVIDIA NVSwitches Largura de Banda Bidirecional de 4,8TB/s, 2 Vezes Mais que o NVSwitch da Geração Anterior
3 10x INTERFACE DE REDE MELLANOX CONNECTX-6 200Gb/S 500 GB/s de Largura de Banda Bidirecional de Pico
4 CPUs AMD DUAL 64 CORE E MEMÓRIA DE SISTEMA DE 2TB 3,2 Vezes Mais Núcleos para Impulsionar os Trabalhos de AI Mais Intensivos
5 SSD NVME GEN4 de 30TB Largura de Banda Máxima de 50GB/s, 2 Vezes Mais Rápido que os SSDs NVME Gen3
Mergulhe fundo na nova NVIDIA DGX A100.
A GPU NVIDIA A100 Tensor Core fornece aceleração sem precedentes para AI, análise de dados e computação de alto desempenho (HPC) para enfrentar os desafios de computação mais difíceis do mundo. Com os Tensor Cores NVIDIA de terceira geração, que proporcionam um enorme aumento de desempenho, a GPU A100 pode aumentar de maneira eficiente até milhares ou, com a GPU de várias instâncias, ser alocada como sete instâncias dedicadas menores para acelerar cargas de trabalho de todos os tamanhos.
Com a MIG, as oito GPUs A100 do DGX A100 podem ser configuradas em até 56 instâncias de GPU, cada uma totalmente isolada com seus próprios núcleos de memória, cache e computação de alta largura de banda. Isso permite que os administradores dimensionem GPUs de tamanho certo com qualidade de serviço (QoS) garantida para várias cargas de trabalho.
A terceira geração do NVIDIA® NVLink™ no DGX A100 dobra a largura de banda direta de GPU para GPU para 600 gigabytes por segundo (GB/s), quase 10 vezes mais que o PCIe Gen4. A DGX A100 também possui a próxima geração da NVIDIA NVSwitch™, que é 2 vezes mais rápida que a geração anterior.
A DGX A100 possui os mais recentes adaptadores Mellanox ConnectX-6 VPI HDR InfiniBand/Ethernet, cada um executando a 200 gigabits por segundo (Gb/s) para criar uma malha de alta velocidade para cargas de trabalho de AI em larga escala.
O DGX A100 integra um pacote testado e otimizado de software DGX, incluindo um sistema operacional básico ajustado por AI, todo o software de sistema necessário e aplicações aceleradas por GPU, modelos pré-treinados e muito mais da NGC™.
A DGX A100 oferece a postura de segurança mais robusta para implantações de AI, com uma abordagem em várias camadas que abrange o BMC (Baseboard Management Controller), CPU, GPU, unidades auto-criptografadas e inicialização segura.
Saiba mais sobre o suporte corporativo aos sistemas NVIDIA DGX.
Infraestrutura Líder em AI
Política de Privacidade