NVIDIA HGX A100

Plateforme de bout en bout la plus puissante au monde pour le calcul intensif basé sur l’IA

Plateforme spécifiquement conçue pour la convergence de la simulation, de l’analyse de données et de l’IA

Pour traiter des jeux de données massifs, des modèles d’IA sans cesse plus lourds et des simulations complexes, les entreprises doivent disposer d’une importante mémoire dédiée avec des GPU multiples et un modèle d’interconnexion rapide. La plateforme NVIDIA HGX™, qui exploite toute la puissance des GPU NVIDIA, combine des technologies de pointe comme NVIDIA® NVLink® et NVIDIA Mellanox® InfiniBand® à la pile logicielle de NGC™ spécialement optimisée pour l’IA et le HPC afin de mettre en œuvre des performances d’application sans précédent. Grâce à d’importantes performances de calcul de bout en bout et à une polyvalence incomparable, la plateforme NVIDIA HGX permet aux chercheurs et aux scientifiques de combiner des techniques avancées de simulation, d’analyse de données et d’intelligence artificielle pour faire avancer la science.

Accélération sans précédent du calcul informatique

La plateforme NVIDIA HGX A100, qui associe de multiples GPU NVIDIA A100 Tensor Core à des interconnexions à haute vitesse, permet de mettre en œuvre les serveurs les plus puissants au monde. Doté de puissants GPU A100 à 80 Go, un seul système HGX A100 est capable de fournir une mémoire dédiée pouvant atteindre 1,3 téraoctets (To) et une bande passante globale de 2 To/s, ce qui représente un gain de performance incomparable.

Grâce à la puissance phénoménale des cœurs Tensor, un système HGX A100 peut délivrer des performances de calcul TF32 jusqu’à 20 fois plus élevées dans les applications d’IA et des performances de calcul FP64 jusqu’à 2,5 fois plus élevées pour le HPC. D’une grande simplicité de déploiement, les systèmes HGX A100 rationalisent le processus d’intégration aux serveurs de nos partenaires avec des performances garanties. Un système NVIDIA HGX A100 avec 16 GPU est en mesure de fournir une puissance brute de 10 pétaflops, ce qui constitue la plateforme de serveur Scale-Up accélérée par GPU la plus puissante au monde pour les workflows d’IA et de HPC.

NVIDIA HGX A100 (avec huit GPU A100)

NVIDIA HGX A100 (avec huit GPU A100)

NVIDIA HGX A100 (avec quatre GPU A100)

NVIDIA HGX A100 (avec quatre GPU A100)

Performances pour le Deep Learning

Performances pour l’apprentissage automatique

Performances jusqu’à 83 fois plus rapides (CPU) et 2 fois plus rapides (système A100 40 Go) sur les benchmarks d’analyse Big Data

Performances jusqu’à 83 fois plus rapides (CPU) et 2 fois plus rapides (système A100 40 Go) sur les benchmarks d’analyse Big Data

Les nouveaux modèles d’apprentissage automatique nécessitent de charger, de transformer et de traiter des jeux de données extrêmement volumineux afin de collecter des ressources exploitables. Grâce à plus de 1,3 To de mémoire unifiée et à des communications GPU All-to-All via NVSwitch, un système HGX A100 avec des GPU A100 à 80 Go vous permet de charger et de réaliser des calculs sur d’énormes jeux de données afin d’obtenir plus rapidement des ressources exploitables.

Sur un benchmark d’analyse Big Data, un GPU A100 à 80 Go est en mesure de fournir un rendement jusqu’à 83 fois plus élevé qu’avec le traitement CPU et jusqu’à 2 fois plus élevé qu’avec un GPU A100 à 40 Go, ce qui permet de traiter les charges de travail émergentes avec des volumes de données sans cesse plus conséquents.

Performances pour les applications HPC

Les applications HPC requièrent une puissance de calcul suffisamment élevée pour exécuter un grand nombre d'opérations par seconde. L’augmentation de la densité de calcul sur chaque nœud de serveur permet de réduire le nombre de serveurs afin de réaliser des économies significatives en termes d’espace et de coût énergétique. Les simulations HPC avancées s’appuient sur des multiplications matricielles à haute dimension qui nécessitent de collecter des données sur des voisins multiples afin de faciliter les calculs ; c’est pourquoi les GPU connectés par la technologie NVLink constituent la plateforme idéale. Les applications HPC peuvent désormais profiter des capacités de calcul TF32 des GPU A100 pour accélérer de manière significative les opérations de multiplication matricielle en simple précision, avec un rendement onze fois plus élevé qu’il y a seulement quatre ans.

Dans Quantum Espresso, un outil avancé de simulation des matériaux, un seul système HGX A100 équipé de GPU A100 à 80 Go offre un rendement deux fois plus important par rapport aux GPU A100 à 40 Go, ce qui représente un gain de temps considérable.

Performances HPC accélérées par 11 fois en quatre ans

Rendement dans les principales applications HPC​

Performances HPC accélérées par 11 fois  en quatre ans

Performances jusqu’à 1,8 fois plus élevées dans les applications HPC

Quantum Espresso​

Performances jusqu’à 1,8 fois plus élevées  dans les applications HPC

Spécifications HGX A100

La plateforme HGX A100 est disponible via des cartes de référence pour serveur dotées de quatre ou de huit GPU A100. La configuration à quatre GPU est entièrement interconnectée avec NVLink, et la configuration à huit GPU est interconnectée avec NVSwitch. Deux cartes de référence HGX A100 à huit GPU peuvent également être combinées à l’aide d’une interface d’interconnexion NVSwitch pour créer un nœud unique à 16 GPU.

4 GPU 8 GPU 16 GPU
GPU 4x NVIDIA A100 8x NVIDIA A100 16x NVIDIA A100
Puissance de calcul IA/HPC FP64/TF32*/FP16*/INT8* 78TF/1.25PF*/2.5PF*/5POPS* 156TF/2.5PF*/5PF*/10POPS* 312TF/5PF*/10PF*/20POPS*
Mémoire Jusqu’à 320 Go Jusqu’à 640 Go Jusqu’à 1 280 Go
NVIDIA NVLink 3e génération 3e génération 3e génération
NVIDIA NVSwitch N/A 2e génération 2e génération
NVIDIA Bande passante GPU vers GPU avec NVSwitch N/A 600 Go/s 600 Go/s
Bande passante globale 2,4 To/s 4,8 To/s 9,6 To/s

Architectures de référence HGX-1 et HGX-2

Avec GPU NVIDIA et technologie NVLink

Les architectures de référence NVIDIA HGX-1 et HGX-2 permettent de standardiser la conception des Data Centers et d’accélérer les workflows IA et HPC. Basées sur des cartes graphiques NVIDIA SXM2 V100 à hautes performances et équipées des technologies d’interconnexion NVIDIA NVLink et NVSwitch, les architectures de référence HGX se distinguent par une conception modulaire spécifiquement adaptée aux centres de données Hyperscale et Hybrides. Dotées d’une puissance de calcul pouvant atteindre 2 pétaflops, elles accélèrent l’avènement des technologies d’intelligence artificielle et de calcul haute performance.

Avec GPU NVIDIA et technologie NVLink

Spécifications

8 GPU
HGX-1 
16 GPU
HGX-2 
GPU 8x NVIDIA V100 16x NVIDIA V100
Puissance de calcul pour l’IA 1 pétaflop (FP16) 2 pétaflops (FP16)
Mémoire 256 Go 512 Go
NVLink 2e génération 2e génération
NVSwitch N/A Oui
NVSwitch GPU-to-GPU Bandwidth N/A 300 Go/s
Total Aggregate Bandwidth 2,4 to/s 4,8 To/s

Aperçu de l’architecture NVIDIA Ampere

Consultez cette présentation technique pour découvrir les nouveautés de l’architecture NVIDIA Ampere ainsi que son intégration dans le GPU NVIDIA A100.