Arquitetura NVIDIA Hopper

O motor da infraestrutura de AI do mundo dá um salto imenso de desempenho.

A Plataforma de Computação Acelerada para Cargas de Trabalho de Última Geração

Saiba mais sobre a arquitetura NVIDIA Hopper, o próximo grande avanço na computação acelerada. Ela dimensiona, com segurança, diversas cargas de trabalho em todos os data centers, incluindo pequenas tarefas corporativas, tarefas de computação de alto desempenho (HPC - High-Performance Computing) em exaescala e de AI com trilhões de parâmetros, permitindo que os maiores inovadores do mercado façam seu trabalho em um ritmo inédito.

Pronto para a AI Empresarial?

A adoção da IA por parte das empresas é agora uma prática comum, e as organizações precisam de uma infra-estrutura pronta para a AI de ponta a ponta que as acelere nesta nova era.

As GPUs NVIDIA H100 Tensor Core para servidores convencionais vêm com o pacote de software NVIDIA AI Enterprise, simplificando a adoção da AI com o melhor desempenho.

Explore os Avanços Tecnológicos

Construído com mais de 80 bilhões de transistores usando um processo TSMC 4N de ponta, o Hopper apresenta cinco inovações revolucionárias que impulsionam as GPUs NVIDIA H200 e H100 Tensor Core e se combinam para oferecer acelerações incríveis em relação à geração anterior em treinamento e inferência de IA generativa.

Engine Transformer

Engine Transformer

A arquitetura NVIDIA Hopper aprimora a tecnologia Tensor Core com o engine Transformer, desenvolvido para acelerar o treinamento de modelos de AI. Os Tensor Cores Hopper podem aplicar as precisões FP8 e FP16 combinadas para acelerar significativamente os cálculos de AI para transformers. A Hopper também triplica as operações de ponto flutuante por segundo (FLOPS - Floating-Point Operations per Second) nas precisões TF32, FP64, FP16 e INT8 em comparação à geração anterior. Com o engine Transformer e a NVIDIA® NVLink® de quarta geração, os Tensor Cores Hopper aceleram, em uma ordem de magnitude, as cargas de trabalho de HPC e AI.

Sistema de Switch NVLink, NVSwitch e NVLink

Para se mover na velocidade dos negócios, os modelos de exaescala para HPC e IA de trilhões de parâmetros precisam de comunicação contínua e de alta velocidade entre todas as GPUs em um cluster de servidor para acelerar em escala.

A quarta geração NVLink pode escalar entrada e saída (IO) multi-GPU com servidores NVIDIA DGX™ e HGX™ a 900 gigabytes por segundo (GB/s) bidirecionais por GPU, mais de 7 vezes a largura de banda do PCIe Gen5.

A terceira geração NVIDIA NVSwitch™ suporta computação em rede SHARP™ (Scalable Hierarchical Aggregation and Reduction Protocol), anteriormente disponível apenas na Infiniband, e fornece um aumento de 2 vezes na taxa de transferência totalmente reduzida em oito servidores de GPU H100 em comparação com os sistemas de GPU A100 Tensor Core da geração anterior.

Os sistemas DGX GH200 com Sistema de Switch NVLink suportam clusters de até 256 H100s conectados e fornecem 57,6 terabytes por segundo (TB/s) de largura de banda total.

NVLink Switch System
Computação Confidencial Hopper

Computação Confidencial Hopper

Embora os dados sejam criptografados em repouso no armazenamento e em trânsito na rede, eles ficam sem proteção quando estão sendo processados. A computação confidencial protege os dados e as aplicações em uso, resolvendo esse problema. A arquitetura NVIDIA Hopper apresenta a primeira plataforma de computação acelerada do mundo com recursos de computação confidencial.

Com uma forte segurança baseada em hardware, os usuários podem executar aplicações no local, na nuvem ou no edge e ter a certeza de que entidades não autorizadas não poderão visualizar ou modificar o código e os dados da aplicação quando ela estiver em uso. Isso protege a confidencialidade e a integridade dos dados e aplicações, ao mesmo tempo que acessa a aceleração sem precedentes das GPUs H200 e H100 para treinamento de IA, inferência de IA e cargas de trabalho de HPC.

MIG de Segunda Geração

Com a GPU Multi-Instância (MIG - Multi-Instance GPU), é possível particionar uma GPU em várias instâncias menores e totalmente isoladas com memória, cache e núcleos de computação próprios. A arquitetura Hopper aprimora ainda mais a MIG, permitindo configurações multilocatárias e com vários usuários em ambientes virtualizados em até sete instâncias de GPU, isolando cada instância de forma segura com computação confidencial no hardware e no hipervisor. Os decodificadores de vídeo dedicados para cada instância da MIG oferecem análise inteligente de vídeo (IVA - Intelligent Video Analytics) segura e de alto rendimento na infraestrutura compartilhada. Além disso, com a criação simultânea de perfis da MIG da Hopper, os administradores podem monitorar a aceleração ideal por GPU e otimizar a alocação de recursos para os usuários.

No caso de pesquisadores com cargas de trabalho menores, em vez de alugarem uma instância completa do CSP, eles podem usar a MIG para isolar com segurança uma parte de uma GPU sem se preocupar com a segurança dos dados em repouso, em trânsito e na computação.

MIG de Segunda Geração
Instruções DPX

Instruções DPX

A programação dinâmica é uma técnica algorítmica para solucionar um problema recursivo complexo, dividindo-o em subproblemas mais simples. Armazenando os resultados de subproblemas para eliminar a necessidade de resolvê-los novamente, ela reduz o tempo e a dificuldade da solução de problemas complexos. A programação dinâmica é muito adotada em diversos casos de uso. O Floyd-Warshall, por exemplo, é um algoritmo de otimização de rotas que pode ser usado para identificar as rotas mais curtas para frotas de transporte e entrega. O algoritmo Smith-Waterman é usado para as aplicações de alinhamento de sequências de DNA e enovelamento de proteínas.

Com as instruções DPX, a Hopper acelera algoritmos dinâmicos de programação em 40 vezes em comparação com CPUs e em 7 vezes em comparação com as GPUs da arquitetura NVIDIA Ampere. Essa capacidade agiliza muito o diagnóstico de doenças, a otimização de rotas em tempo real e até a análise de grafos.

Especificações preliminares sujeitas a alterações
Comparação de instruções DPX HGX H100 de 4 GPUs em comparação com o IceLake de soquete duplo e 32 núcleos

Saiba tudo sobre a Arquitetura NVIDIA Hopper.