Arquitetura NVIDIA Hopper

O motor da infraestrutura de AI do mundo dá um salto imenso de desempenho.

A Plataforma de Computação Acelerada para Cargas de Trabalho de Última Geração

Saiba mais sobre a arquitetura NVIDIA Hopper, o próximo grande avanço na computação acelerada. Ela dimensiona, com segurança, diversas cargas de trabalho em todos os data centers, incluindo pequenas tarefas corporativas, tarefas de computação de alto desempenho (HPC - High-Performance Computing) em exaescala e de AI com trilhões de parâmetros, permitindo que os maiores inovadores do mercado façam seu trabalho em um ritmo inédito.

Pronto para a AI Empresarial?

A adoção da IA por parte das empresas é agora uma prática comum, e as organizações precisam de uma infra-estrutura pronta para a AI de ponta a ponta que as acelere nesta nova era.

As GPUs NVIDIA H100 Tensor Core para servidores convencionais vêm com o pacote de software NVIDIA AI Enterprise, simplificando a adoção da AI com o melhor desempenho.

Explore as inovações tecnológicas.

Desenvolvida com mais de 80 bilhões de transistores e um processo 4N de ponta da TSMC, ela conta com cinco inovações revolucionárias que aprimoram a GPU NVIDIA H100 Tensor Core e oferecem uma aceleração incrível 30 vezes maior que a da geração anterior na inferência de AI do chatbot Megatron 530B da NVIDIA, o maior modelo de linguagem generativa do mundo.

Engine Transformer

Engine Transformer

A arquitetura NVIDIA Hopper aprimora a tecnologia Tensor Core com o engine Transformer, desenvolvido para acelerar o treinamento de modelos de AI. Os Tensor Cores Hopper podem aplicar as precisões FP8 e FP16 combinadas para acelerar significativamente os cálculos de AI para transformers. A Hopper também triplica as operações de ponto flutuante por segundo (FLOPS - Floating-Point Operations per Second) nas precisões TF32, FP64, FP16 e INT8 em comparação à geração anterior. Com o engine Transformer e a NVIDIA® NVLink® de quarta geração, os Tensor Cores Hopper aceleram, em uma ordem de magnitude, as cargas de trabalho de HPC e AI.

Rede NVLink

Para acompanhar o ritmo do mundo dos negócios, a HPC em exaescala e os modelos de AI com trilhões de parâmetros precisam de uma comunicação uniforme e de alta velocidade entre todas as GPUs de um cluster de servidores para aceleração em escala.

A NVLink de quarta geração é uma interconexão de escalabilidade vertical. Agora, com o novo Switch NVLink externo, a Rede NVLink permite o dimensionamento de operações de I/O multi-GPU em diversos servidores a 900 gigabytes bidirecionais por segundo por GPU, o que representa uma largura de banda mais 7 vezes maior que a de PCIe 5.0. A Rede NVLink é compatível com até 256 clusters conectados da H100 e oferece uma largura de banda 9 vezes maior que a HDR InfiniBand na Ampere.

Além disso, agora a NVLink permite a computação em rede SHARP, que antes estava disponível apenas na InfiniBand, e pode oferecer 1 exaFLOP de computação de AI com dispersão FP8, proporcionando também 57,6 terabytes/s de largura de banda All2All.

Rede NVLink
Computação Confidencial Hopper

Computação Confidencial Hopper

Embora os dados sejam criptografados em repouso no armazenamento e em trânsito na rede, eles ficam sem proteção quando estão sendo processados. A computação confidencial protege os dados e as aplicações em uso, resolvendo esse problema. A arquitetura NVIDIA Hopper apresenta a primeira plataforma de computação acelerada do mundo com recursos de computação confidencial.

Com a segurança robusta baseada em hardware, os usuários podem executar aplicações on premise, no cloud ou no edge sem se preocupar com a visualização ou modificação não autorizadas do código e dos dados da aplicação em uso. Esse recurso protege a confidencialidade e a integridade dos dados e das aplicações, além de aproveitar a aceleração inédita das GPUs H100 para cargas de trabalho de treinamento de AI, inferência de AI e HPC.

MIG de Segunda Geração

Com a GPU Multi-Instância (MIG - Multi-Instance GPU), é possível particionar uma GPU em várias instâncias menores e totalmente isoladas com memória, cache e núcleos de computação próprios. A arquitetura Hopper aprimora ainda mais a MIG, permitindo configurações multilocatárias e com vários usuários em ambientes virtualizados em até sete instâncias de GPU, isolando cada instância de forma segura com computação confidencial no hardware e no hipervisor. Os decodificadores de vídeo dedicados para cada instância da MIG oferecem análise inteligente de vídeo (IVA - Intelligent Video Analytics) segura e de alto rendimento na infraestrutura compartilhada. Além disso, com a criação simultânea de perfis da MIG da Hopper, os administradores podem monitorar a aceleração ideal por GPU e otimizar a alocação de recursos para os usuários.

No caso de pesquisadores com cargas de trabalho menores, em vez de alugarem uma instância completa do CSP, eles podem usar a MIG para isolar com segurança uma parte de uma GPU sem se preocupar com a segurança dos dados em repouso, em trânsito e na computação.

MIG de Segunda Geração
Instruções DPX

Instruções DPX

A programação dinâmica é uma técnica algorítmica para solucionar um problema recursivo complexo, dividindo-o em subproblemas mais simples. Armazenando os resultados de subproblemas para eliminar a necessidade de resolvê-los novamente, ela reduz o tempo e a dificuldade da solução de problemas complexos. A programação dinâmica é muito adotada em diversos casos de uso. O Floyd-Warshall, por exemplo, é um algoritmo de otimização de rotas que pode ser usado para identificar as rotas mais curtas para frotas de transporte e entrega. O algoritmo Smith-Waterman é usado para as aplicações de alinhamento de sequências de DNA e enovelamento de proteínas.

Com as instruções DPX, a Hopper acelera algoritmos dinâmicos de programação em 40 vezes em comparação com CPUs e em 7 vezes em comparação com as GPUs da arquitetura NVIDIA Ampere. Essa capacidade agiliza muito o diagnóstico de doenças, a otimização de rotas em tempo real e até a análise de grafos.

Especificações preliminares sujeitas a alterações
Comparação de instruções DPX HGX H100 de 4 GPUs em comparação com o IceLake de soquete duplo e 32 núcleos

Saiba tudo sobre a Arquitetura NVIDIA Hopper.