O Sistema Universal para a Infraestrutura de AI
O NVIDIA DGX™ é o sistema universal para todas as cargas de trabalho de AI, oferecendo densidade, desempenho e flexibilidade computacionais sem precedentes no primeiro sistema de AI com 5 petaFLOPS do mundo. Com a GPU NVIDIA A100 Tensor Core, o DGX A100 permite que as empresas consolidem treinamento, inferência e análise para uma infraestrutura de AI unificada e fácil de implantar que inclui com acesso integrado a especialistas em NVIDIA AI.
NVIDIA DGX A100 é o sistema universal para toda a infra-estrutura de AI, desde a análise até o treinamento e a inferência. O DGX A100 é alimentado pelo NVIDIA Base Command, o sistema operacional do data center acelerado. Ele estabelece uma nova barra para calcular a densidade, embalando 5 petaFLOPS de desempenho de AI em um fator de forma 6U, substituindo os silos de infra-estrutura herdados por uma plataforma para cada carga de trabalho de AI.
A NVIDIA DGXperts é uma equipe global com mais de 14.000 profissionais capacitados em AI que obtiveram uma ampla experiência na última década para ajudar você a maximizar o valor do seu investimento na DGX.
NVIDIA DGX A100 é o primeiro sistema de AI do mundo construído sobre a GPU NVIDIA A100 Tensor Core. Integrando oito GPUs A100 com 320GB ou 640GB de memória GPU, o sistema proporciona uma aceleração sem precedentes e é totalmente otimizado para o software NVIDIA CUDA-X™ e para o stack de soluções ponta a ponta do data center NVIDIA.
O NVIDIA DGX A100 conta com adaptadores de rede NVIDIA® ConnectX-7® InfiniBand/Ethernet de 500 gigabytes por segundo (GB/s) de largura de banda bidirecional de pico. Esse é um dos muitos recursos que tornam o DGX A100 o componente fundamental para grandes clusters de AI, como o NVIDIA DGX SuperPOD™, o esquema empresarial para infraestrutura de AI dimensionável.
O Kit para Iniciante em AI da NVIDIA oferece tudo o que sua equipe precisa para suas iniciativas de AI, desde uma plataforma de AI de nível internacional até software e ferramentas otimizadas e serviços de consultoria. Não perca tempo e dinheiro construindo uma plataforma de AI. Conecte e comece a usar em um dia apenas, defina casos de uso em uma semana e comece a usar modelos em bem menos tempo.
Treinamento em DLRM
Rendimento até 3 Vezes Superior para Treinamento de AI em Modelos Maiores
DLRM no framework HugeCTR, precisão = FP16 | 1x DGX A100 640GB tamanho do lote = 48 | 2x DGX A100 320GB tamanho do lote = 32 | 1x DGX-2 (16x V100 32GB) tamanho do lote = 32. Acelerações Normalizadas em Número de GPUs.
Inferência RNN-T: Fluxo Único
Rendimento até 1,25 Vezes Maior para Inferência de AI
MLPerf 0,7 RNN-T medido com (1/7) fatias de MIG. Framework: TensorRT 7.2, conjunto de dados = LibriSpeech, precisão = FP16.
Benchmark de Análise de Big Data
Rendimento até 83 Vezes Maior do Que o da CPU, Taxa de Transferência 2 Vezes Maior do que a DGX A100 de 320 GB
Benchmark de análise de big data | 30 consultas de varejo analíticos, ETL, ML, NLP em um conjunto de dados de 10 TB | CPU: 19 Vezes o Intel Xeon Gold 6252 de 2,10 GHz, Hadoop | 16 Vezes o DGX-1 (8 V100 32 GB cada), RAPIDS/Dask | 12 Vezes o DGX A100 de 320 GB e 6 Vezes o DGX A100 de 640 GB, RAPIDS/Dask/BlazingSQL. Acelerações Normalizadas para Número de GPUs
1 8 GPUs NVIDIA A100 COM MEMÓRIA DE GPU TOTAL DE ATÉ 640 GB
12 NVLinks/GPU, largura de banda bidirecional entre GPUs de 600 GB/s
26 NVSwitches NVIDIA Largura de Banda Bidirecional de 4,8 TB/s, o Dobro da Geração Anterior do NVSwitch
3 Até 10X NVIDIA CONNECTX-7 200Gb/s INTERFACE de rede Pico de Largura de Banda Bidirecional de 500 GB/s
4 cpus amd duplas de 64 núcleos e Memória do Sistema de 2 TB 3,2 Vezes Mais Núcleos para os Trabalhos de AI mais Exigentes
5 SSD NVME de 4ª Geração com 30 TB Pico de Largura de Banda de 50 GB/s, 2 Vezes Mais Rápido do que os NVME SSDs da 3ª Geração
Aprofunde-se no novo NVIDIA DGX A100.
A GPU NVIDIA A100 Tensor Core oferece aceleração sem precedentes para AI, análise de dados e computação de alto desempenho (HPC) para enfrentar os desafios de computação mais difíceis do mundo. Com NVIDIA Tensor Cores de terceira geração proporcionando um enorme aumento de desempenho, a GPU A100 pode dimensionar de forma eficiente para milhares ou, com GPU Multi-Instância, ser alocada como sete instâncias menores e dedicadas para acelerar cargas de trabalho de todos os tamanhos.
Com a MIG, as oito GPUs A100 da DGX A100 podem ser configuradas em até 56 instâncias de GPU, cada uma totalmente isolada com sua própria memória de alta largura de banda, cache e núcleos de computação. Isso permite que os administradores definam o tamanho certo das GPUs com qualidade de serviço (QoS) garantida para diversas cargas de trabalho.
A terceira geração do NVIDIA® NVLink™ no DGX A100 dobra a largura de banda direta entre GPUs para 600 gigabytes por segundo (GB/s), quase 10 vezes mais do que a PCIe da 4ª geração.® O DGX A100 também conta com o NVIDIA NVSwitch™ de última geração, que é duas vezes mais rápido do que a geração anterior.
O DGX A100 conta com adaptadores NVIDIA ConnectX-7 InfiniBand e VPI (Infiniband ou Ethernet), cada um operando a 200gb/s para criar um fabric de alta velocidade para cargas de trabalho de AI em larga escala.
O DGX A100 integra um conjunto de software DGX testado e otimizado, incluindo um sistema operacional com AI, todo o software de sistema necessário e aplicações aceleradas por GPU, modelos pré-treinados e muito mais do NGC™.
O DGX A100 oferece a segurança mais robusta para implantações de AI, com uma abordagem em várias camadas que se estende pelo controlador de gerenciamento da placa base (BMC), placa de CPU, placa de GPU, unidades com criptografia automática e inicialização segura.
Saiba mais sobre o suporte de nível empresarial para sistemas NVIDIA DGX.
Infraestrutura Líder de AI
Opcional
Política de Privacidade da NVIDIA