NVIDIA HGX A100

Equipado com GPUs NVIDIA A100 Tensor Core, NVLink e NVSwitch

A Plataforma de Servidor Acelerada Mais Poderosa para AI e Computação de Alto Desempenho

Conjuntos de dados maciços em machine learning, tamanhos de modelos grandes no deep learning e simulações complexas na computação de alto desempenho (HPC) requerem várias GPUs com interconexões extremamente rápidas. A NVIDIA HGX A100 combina as GPUs NVIDIA A100 Tensor Core com as novas interconexões de alta velocidade NVIDIA® NVLink® e NVSwitch para criar os servidores mais poderosos do mundo. Uma base totalmente testada e fácil de implantar, a HGX A100 integra-se aos servidores parceiros para fornecer desempenho garantido.

Computação Acelerada Inigualável

Alavancando o poder dos Tensor Cores de terceira geração, a HGX A100 fornece aceleração de até 20 vezes a AI com o Tensor Float 32 (TF32) e uma aceleração de 2,5 vezes no HPC com FP64. A NVIDIA HGX™ A100 de 4 GPUs oferece quase 80 teraFLOPS de FP64 para as cargas de trabalho de HPC mais exigentes. A NVIDIA HGX ™ A100 8-GPU fornece 5 petaFLOPS de computação de deep learning de FP16, enquanto o 16 GPU HGX A100 oferece 10 petaFLOPS impressionantes, criando a plataforma de servidor de escalonamento acelerado mais poderosa do mundo para AI e HPC.

NVIDIA HGX A100 de 8 GPUs

NVIDIA HGX A100 de 8 GPUs

NVIDIA HGX A100 de 4 GPUs

NVIDIA HGX A100 de 4 GPUs

Até 6 Vezes Mais Desempenho Pronto para Uso com o TF32 para Treinamento em AI

Treinamento BERT

nvidia-a100-6x-tf32-ai-training-2c50-d

Desempenho de Deep Learning

Modelos de deep learning estão cada vez maiores e mais complexos. Isso significa que os modelos de AI requerem um sistema com grandes quantidades de memória, enorme poder de processamento e interconexões de alta velocidade para oferecer escalabilidade eficiente. Com o NVIDIA NVSwitch fornecendo comunicações GPU de alta velocidade, o HGX A100 oferece o poder de lidar com os modelos de AI mais avançados. Uma única NVIDIA HGX A100 8-GPU oferece até 6 vezes mais desempenho de treinamento de IA e 7 vezes mais inferência de AI no modelo AI da BERT em comparação com os sistemas HGX baseados em NVIDIA Volta™ da geração anterior.

Desempenho de Machine Learning

Os modelos de machine learning requerem carregamento, transformação e processamento de conjuntos de dados extremamente grandes para se obter insights. Com mais de meio terabyte de memória unificada e comunicações GPU com o NVSwitch, a HGX A100 tem o poder de carregar e executar cálculos em enormes conjuntos de dados para obter insights acionáveis rapidamente.

Desempenho de Machine Learning

9 Vezes Mais Desempenho de HPC em 4 Anos

Taxa de Transferência para As Principais Aplicações HPC

nvidia-a100-9x-hpc-2c50-d

Desempenho HPC

As aplicações em HPC requerem capacidade de computação que pode executar uma quantidade enorme de cálculos por segundo. Aumentar a densidade de computação de cada nó do servidor reduz significativamente o número de servidores necessários, resultando em uma enorme economia de custo, energia e espaço consumido no data center. Para simulações de HPC, a multiplicação de matrizes de alta dimensão requer que um processador utilize recursos de outros processadores para a computação, tornando as GPUs conectadas pelo NVLink ideais. Um único servidor NVIDIA HGX™ A100 de 4 GPUs substitui mais de 100 servidores baseados em CPU executando as mesmas aplicações científicas.

A Mais Poderosa e Completa Plataforma de Data Center de AI e HPC

A solução completa de data center da NVIDIA incorpora elementos básicos de hardware, rede, software, bibliotecas e modelos e aplicações de AI otimizados da NGC. Representando a plataforma completa de AI e HPC mais poderosa para data centers, ela permite que os pesquisadores entreguem resultados reais e implementem soluções na produção em escala.

Especificações Técnicas HGX A100

A HGX A100 está disponível em uma única base com 4 ou 8 GPUs A100. A configuração de 4 GPUs está totalmente interconectada ao NVLink e a configuração de 8 GPUs está interconectada ao NVSwitch. Duas bases NVIDIA HGX™ A100 de 8 GPUs também podem ser combinadas usando uma interconexão NVSwitch para criar um poderoso nó único de 16 GPUs.

4 GPUs 8 GPUs 16 GPUs
GPUs 4x NVIDIA A100 8x NVIDIA A100 16x NVIDIA A100
Computação HPC e AI FP64/TF32*/FP16*/INT8* 78TF/1.25PF*/2.5PF*/5POPS* 156TF/2.5PF*/5PF*/10POPS* 312TF/5PF*/10PF*/20POPS*
Memória 160 GB 320 GB 640 GB
NVIDIA NVLink 3ª geração 3ª geração 3ª geração
NVIDIA NVSwitch N/A 2ª geração 2ª geração
Largura de banda GPU para GPU NVIDIA NVSwitch N/A 600 GB/s 600 GB/s
Largura de Banda Agregada Total 2,4 TB/s 4,8 TB/s 9,6 TB/s

Arquiteturas de Referência HGX-1 e HGX-2

Equipadas com as GPUs e NVLINK da NVIDIA

NVIDIA HGX-1 e HGX-2 são arquiteturas de referência que padronizam o design de data centers acelerando AI e HPC. Construídas com placas NVIDIA SXM2 V100 com tecnologias de interconexão NVIDIA NVLink e NVSwitch, as arquiteturas de referência HGX têm um design modular que funciona perfeitamente em data centers em escala hiperespacial e híbrida para fornecer até 2 petaFLOPS de energia de processamento para um caminho rápido e simples para AI e HPC.

Equipadas com as GPUs e NVLINK da NVIDIA

Especificações Técnicas

HGX-1 com
8 GPUs 
HGX-2 com
16 GPUs 
GPUs 8x NVIDIA V100 16x NVIDIA V100
Computação AI 1 petaFLOPS (FP16) 2 petaFLOPS (FP16)
Memória 256 GB 512 GB
NVLink 2nd generation 2nd generation
NVSwitch N/A Yes
Largura de Banda GPU-para-GPU com NVSwitch N/A 300 GB/s
Largura de Banda Agregada Total 2.4 TB/s 4.8 TB/s

Por Dentro da Arquitetura NVIDIA Ampere

Leia este detalhamento técnico para conhecer as novidades da arquitetura NVIDIA Ampere e sua implementação na GPU NVIDIA A100.