NVIDIA HGX-2

Com tecnologia das GPUs NVIDIA Tesla V100 e do NVSwitch

Unindo HPC e computação de AI em uma arquitetura unificada

Estamos no início de uma nova era de inteligência, na qual a IA e a computação de alto desempenho (HPC) estão transformando o mundo. De veículos autônomos a simulações de clima global, novos desafios estão surgindo que exigem enormes recursos de computação para serem resolvidos. O NVIDIA HGX-2 é projetado para computação de multiprecisão, que combina a potência da computação científica de alta precisão usando FP64 e FP32 à velocidade de precisão inferior da computação de IA com FP16 e Int8, para oferecer uma plataforma única, flexível e avançada para solucionar esses grandes desafios.

Ativa a “maior GPU do mundo”

Acelerado por 16 GPUs NVIDIA® Tesla® V100 e pelo NVIDIA NVSwitch, o HGX-2 conta com poder computacional, largura de banda e topologia de memória sem precedentes para treinar esses modelos mais rapidamente e com mais eficiência. As 16 GPUs Tesla V100 trabalham como um único e unificado acelerador de 2 petaFLOPs com metade de um terabyte (TB) de memória total da GPU, permitindo a ele lidar com as cargas de trabalho mais intensivas computacionalmente e ativar “a maior GPU do mundo.”

Ativa a maior GPU do mundo
Treinamento de IA: HGX-2 substitui 300 nós de servidores apenas com CPU

Impulsionando a nova geração de IA para desempenho mais rápido

A complexidade dos modelos de IA está cada vez maior, e eles exigem mais memória, várias placas de vídeo e uma conexão extremamente rápida entre placas de vídeo para funcionar. Com o NVSwitch conectando todas as GPUs e a memória unificada, o HGX-2 oferece a potência para lidar com esses novos modelos para treinamento mais rápido de IA avançada. Um único HGX-2 substitui 300 servidores com tecnologia de CPU, economizando significativamente os custos, o espaço e a energia no data center.

HPC: HGX-2 substitui 60 nós de servidores com apenas CPU

O maior nó de HPC com o mais alto desempenho

Os aplicativos de HPC exigem nós de servidores mais fortes com o poder computacional para realizar um número enorme de cálculos por segundo. Aumentar a densidade computacional de cada nó reduz drasticamente o número de servidores necessários, resultando em uma enorme economia de custos, energia e espaço consumido no data center. Para simulações de HPC, a multiplicação de matrizes de alta dimensão exige um processador para buscar dados de muitos vizinhos a fim de facilitar a computação, conectando as placas de vídeo pelo ideal do NVSwitch. Um único servidor HGX-2 substitui 60 servidores apenas com CPU.

NVSwitch para computação de largura de banda total

O NVSwitch possibilita que todas as GPUs se comuniquem entre si em largura de banda total de 2,4TB/s para solucionar os maiores problemas de IA e HPC. Todas as GPUs têm acesso total a 0,5TB de memória HBM2 agregada para lidar com os maiores conjuntos de dados. Ao ativar um nó de servidor unificado, o NVSwitch dramaticamente acelera aplicativos complexos de IA e HPC.

NVSwitch para computação de largura de banda total

Especificações

HGX-1 HGX-2
Performance 1 petaFLOP tensor operations
125 teraFLOPS single-precision
62 teraFLOPS double-precision
2 petaFLOPS tensor operations
250 teraFLOPS single-precision
125 teraFLOPS double-precision
GPUs 8x NVIDIA Tesla V100 16x NVIDIA Tesla V100
GPU Memory 256GB total 512GB total
NVIDIA CUDA® Cores 40,960 81,920
NVIDIA Tensor Cores 5,120 10,240
Communication Channel Hybrid cube mesh powered by NVLink 300GB/s bisection bandwidth NVSwitch powered by NVLink 2.4TB/s bisection bandwidth

Arquitetura de referência HGX-1

Com tecnologia das GPUs NVIDIA Tesla e do NVLink

O NVIDIA HGX-1 é uma arquitetura de referência que padronizou o design de data centers acelerando a IA em nuvem. Com base em oito placas Tesla SXM2 V100, uma topologia de cubo de malha híbrido para escalabilidade e 1 petaFLOP de poder computacional, seu design modular trabalha muito bem em data centers de hiperescala e oferece um caminho simples e rápido para IA.

Capacitando o ecossistema de data centers

A NVIDIA firma parceria com os fabricantes líderes mundiais para avançar rapidamente a computação em nuvem de IA. A NVIDIA oferece placas mães de GPUs HGX-2, diretrizes de design e acesso antecipado às tecnologias de computação em GPUs para os parceiros as integrarem aos servidores e oferecer em escala a seus ecossistemas de data centers.

Capacitando o ecossistema de data centers

Inscreva-se para receber novidades de data centers.

Saiba mais sobre as novidades em computação de alto desempenho, deep learning e inteligência artificial.