NVIDIA HGX-2

Avec GPU Tesla V100 et technologie NVSwitch

La plateforme de calcul accéléré la plus puissante au monde pour les workflows Deep Learning, Machine Learning et HPC

Nous sommes à l’aube d’une nouvelle ère du numérique. Les applications d’intelligence artificielle (IA) et de calcul haute performance (HPC) ont commencé à transformer notre monde. Dans de nombreux domaines allant des véhicules autonomes aux simulations climatiques, des projets innovants nécessitent des ressources de calcul sans cesse plus importantes. Spécifiquement conçue pour le calcul multi-précision, la plateforme NVIDIA HGX-2vous offre une puissance et une polyvalence sans précédent.Elle combine la puissance du calcul scientifique à haute précision et la rapidité du calcul IA à basse précision pour vous permettre de réaliser vos projets les plus ambitieux.

GPU le plus dense au monde

Accélérée par 16 GPU NVIDIA® Tesla® V100 et la technologie d’interconnexion NVIDIA NVSwitch, la plateforme HGX-2 délivre une puissance de calcul incomparable, une bande-passante ultra-rapide et une excellente topologie de mémoire pour entraîner des modèles complexes, analyser des jeux de données et réaliser des simulations encore plus rapidement et efficacement. Les seize GPU Tesla V100 interconnectés offrent une puissance de calcul unifiée de 2 pétaflops pour un demi-téraoctet de la mémoire GPU totale, ce qui permet de constituer le “GPU le plus dense au monde” afin de prendre en charge des workflows de calcul ultra-intensifs.

GPU le plus dense au monde

AI Training: HGX-2 Replaces 300 CPU-Only Server Nodes

Workload: ResNet50, 90 epochs to solution  | CPU Server: Dual-Socket Intel Xeon Gold 6140
|  Dataset: ImageNet2012  |

Performances plus rapides pour projets IA de nouvelle génération

Les modèles IA de nouvelle génération gagnent en complexité et requièrent une mémoire plus importante, des GPU multiples et une connectivité GPU ultra-rapide. Basée sur la technologie NVSwitch qui connecte l’ensemble des GPU avec une mémoire unifiée, la plateforme HGX-2 délivre une puissance suffisante pour gérer ces nouveaux modèles et accélérer les workflows d’entraînement IA. Un seul système HGX-2 peut remplacer jusqu’à 300 serveurs à base CPU, ce qui optimise votre Data Center de manière significative avec une importante réduction des coûts d’exploitation, de l’encombrement et de la consommation.

Machine Learning: HGX-2 544X Speedup Compared to CPU-Only Server Nodes

GPU Measurements Completed on DGX-2 | CPU: 20 CPU cluster- comparison is prorated to 1 CPU (61 GB of memory, 8 vCPUs, 64-bit platform), Apache Spark | US Mortgage Data Fannie Mae and Freddie Mac 2006-2017 | 146M mortgages | Benchmark 200GB CSV dataset | Data preparation includes joins, variable transformations

Performances plus rapides pour projets d’apprentissage automatique IA de nouvelle génération

Les modèles d’apprentissage automatique basés sur l’IA nécessitent de charger, de transformer et de traiter des jeux de données extrêmement volumineux afin de collecter des ressources exploitables. Grâce à 0,5 To de mémoire unifiée accessible à un débit de 16 To/s et à des communications GPU All-to-All via NVSwitch, la plateforme HGX-2 vous permet de charger et de réaliser des calculs sur d’énormes jeux de données afin d’obtenir plus rapidement des ressources exploitables. De plus, grâce à la solution logicielle d’apprentissage automatique open-source RAPIDS, un seul système HGX-2 peut remplacer jusqu’à 544 serveurs CPU en offrant une importante réduction des coûts d’exploitation, de l’encombrement et de la consommation.

HPC: HGX-2 Replaces up to 156 CPU-Only Server Nodes

Application(Dataset): SPECFEM3D(four material simple model), MILC(APEX Medium), and Chroma(szscl21_24_128) |
CPU Server: Dual-Socket Intel Xeon Gold 6140

Nœud de calcul à hautes performances

Les applications HPC requièrent des nœuds de serveurs robustes avec une puissance de calcul suffisante pour exécuter un grand nombre d'opérations par seconde. L’augmentation de la densité de calcul sur chaque nœud permet de réduire le nombre de serveurs afin de réaliser des économies significatives en termes d’espace et de coût énergétique. Les simulations HPC avancées s’appuient sur des multiplications matricielles à haute dimension qui nécessitent de collecter des données sur des voisins multiples afin de faciliter les calculs ; c’est pourquoi les GPU connectés par la technologie NVSwitch constituent la plateforme idéale. Un seul serveur HGX-2 peut remplacer jusqu’à 60 serveurs CPU.

NVSwitch pour une bande passante totale

La technologie NVSwitch permet d’interconnecter l’ensemble des GPU pour accélérer les communications des workflows IA et HPC avec une bande passante totale de 2,4 téraoctets/s. Chaque GPU peut accéder à 0,5 To de mémoire HBM2 agrégée pour prendre en charge les jeux de données les plus complexes. En déployant un nœud de serveur unifié, NVSwitch accélère les applications IA et HPC de manière significative.

NVSwitch pour une bande passante totale

Spécifications

HGX-1 HGX-2
Performances 1 pétaflop (opérations Tensor)
125 TFlops en simple précision
62 TFlops en double précision
2 pétaflops (opérations Tensor)
250 TFlops en simple précision
125 TFlops en double précision
GPU 8x NVIDIA Tesla V100 16x NVIDIA Tesla V100
Mémoire GPU 256 Go total
débit de 7,2 To/s
512 Go total
débit de 16 To/s
NVIDIA CUDA® Cœurs 40,960 81,920
Cœurs NVIDIA Tensor 5,120 10,240
Communications Topologie Hybrid Cube Mesh avec bande passante bisection NVLink à 300 Go/s Technologie NVSwitch avec bande passante bisection NVLink à 2.4 To/s

Architecture de référence HGX-1

Avec GPU NVIDIA Tesla et technologie NVLink

NVIDIA HGX-1 est une architecture de référence qui standardise la conception des Data Centers pour les workflows IA dans le Cloud. Basée sur huit cartes Tesla SXM2 V100 à hautes performances, sur une topologie Hybrid Cube Mesh offrant un maximum d’évolutivité et sur une puissance de calcul totale d’un pétaflop, la conception modulaire de cette architecture a été conçue pour les centres de données Hyperscale de manière à accélérer l’avènement des technologies IA.

Nouvel écosystème pour Data Center

NVIDIA s’est associé aux principaux constructeurs de l’industrie pour faire avancer le Cloud Computing à base IA. NVIDIA fournit des cartes de référence HGX-2 pour serveurs, des guides de conception et un accès anticipé à ses technologies GPU pour permettre à ses partenaires d’innover et de proposer un nouvel écosystème de solutions pour Data Center.

Nouvel écosystème pour Data Center

CONSULTEZ LA LISTE COMPLÈTE DES SERVEURS NVIDIA TESLA CERTIFIÉS.

Recevez l’actualité des technologies pour Data Center.

Ne manquez aucune information sur les nouvelles technologies de calcul haute performance, de Deep Learning et d’intelligence artificielle.