Système universel pour les infrastructures d’IA
Système universel dédié aux charges de travail d’IA, NVIDIA DGX A100™ offre une densité de calcul sans précédent, des performances foudroyantes et une flexibilité incomparable au sein de la toute première solution à 5 pétaflops de l’industrie. NVIDIA DGX A100 repose sur l’accélérateur le plus avancé au monde, le GPU NVIDIA A100 Tensor Core, pour permettre aux entreprises de consolider leurs workflows d’analyse de données, d’entraînement et d’inférence grâce à une infrastructure d’IA unifiée et facile à déployer - offrant en outre un accès simplifié à des ressources spécialisées de NVIDIA et à des experts de l’intelligence artificielle.
Système universel pour les infrastructures d’IA, NVIDIA DGX A100 peut traiter une grande variété de charges de travail allant de l’analyse de données à l’entraînement en passant par l’inférence. Doté d’une puissance de calcul sans précédent de 5 pétaflops dans une configuration au format 6U, le système A100 définit un nouveau standard pour la densité de calcul et remplace les infrastructures héritées avec une plateforme unique pour toutes les charges de travail d’IA.
NVIDIA DGXperts est un programme qui regroupe une équipe internationale de plus de 16 000 professionnels, spécialisés dans l’intelligence artificielle et possédant plus d’une décennie d’expérience, qui vous aideront à maximiser votre retour sur investissement avec les systèmes DGX.
NVIDIA DGX A100 est le tout premier système au monde basé sur le GPU NVIDIA A100 Tensor Core à hautes performances. Équipé d’un total de huit GPU A100 avec 640 Go de mémoire dédiée, le système A100 délivre une accélération incomparable du calcul informatique et a été spécialement optimisé pour l’environnement logiciel NVIDIA CUDA-X™. Il prend en charge la pile de solutions de bout en bout NVIDIA pour Data Center.
Le système NVIDIA DGX A100 comporte des fonctionnalités Mellanox de mise en réseau fournissant une bande passante bidirectionnelle pouvant atteindre 500 gigaoctets par seconde (Go/s). Cette fonctionnalité s’ajoute aux nombreuses autres innovations technologiques qui font du système DGX A100 une base fondamentale des clusters avancés d’IA tels que NVIDIA DGX SuperPOD™, la solution d’entreprise incontournable pour les infrastructures d’IA à haut degré d’évolutivité.
Grâce à une plateforme à la pointe de la technologie, des outils et des logiciels spécialement optimisés ainsi que des services de conseil sur mesure, le kit de démarrage pour l’IA de NVIDIA vous fournit tout ce dont vos équipes ont besoin pour une mise en service rapide de vos applications d’IA. Ne perdez plus de temps et d’argent à configurer une plateforme d’IA. Connectez-vous immédiatement pour lancer vos projets en une journée, définissez des cas d’utilisation en une semaine, puis commencez à produire des modèles très rapidement.
En savoir plus sur les systèmes NVIDIA DGX A100
Workflow d’entraînement DLRM
Jusqu’à 3 fois plus de rendement pour l’entraînement avec les modèles d'IA les plus complexes
DLRM sur framework HugeCTR, précision = FP16 | Taille de batch 1x DGX A100 640 Go = 48 | Taille de batch 2x DGX A100 320 Go = 32 | Taille de batch 1x DGX-2 (16x V100 32 Go) = 32. Gains de rendement normalisés selon le nombre de GPU.
Inférence RNN-T : flux unique
Rendement jusqu’à 1,25 fois plus élevé pour l’inférence des modèles d’IA
Performances MLPerf 0.7 RNN-T mesurées avec des instances MIG (1/7). Framework : TensorRT 7.2, jeu de données = LibriSpeech, précision = FP16.
Benchmark d’analyse pour le Big Data
Rendement jusqu’à 83 fois plus élevé qu’avec le calcul sur CPU et jusqu’à 2 fois plus élevé qu’avec un GPU DGX A100 320 Go
Benchmark d’analyse pour le Big Data | 30 requêtes d’analyse, ETL, ML, NLP sur un jeu de données de 10 To | CPU : 19x Intel Xeon Gold 6252 2,10 GHz, Hadoop | 16x DGX-1 (8x V100 avec 32 Go chacun), RAPIDS/Dask | 12x DGX A100 320 Go et 6x DGX A100 640 Go, RAPIDS/Dask/BlazingSQL. Gains de rendement normalisés selon le nombre de GPU.
1 8 GPU NVIDIA A100 avec 640 Go de mémoire GPU totale 12 liaisons NVLink par GPU, 600 Go/s de bande passante GPU-vers-GPU
2 6 modules NVSwitch de seconde génération 4,8 To/s de bande passante bidirectionnelle, soit 2 fois plus que la génération précédente
3 10 adaptateurs Mellanox ConnectX-6 VPI HDR InfiniBand 200Gb Ethernet 500 Go/s de bande passante bidirectionnelle maximale
4 Deux CPU AMD 0 64 cœurs et 2 To de mémoire système 2,7x plus de cœurs pour prendre en charge les opérations d’IA les plus intensives
5 Disques SSD NVME Gen4 de 30 To 50 Go/s de bande passante maximale, 2x plus rapide qu’un SSD NVME Gen3
Découvrez en détail le nouveau NVIDIA DGX A100.
Le GPU NVIDIA A100 Tensor Core offre des capacités d’accélération sans précédent pour les workflows d’intelligence artificielle (IA), d’analyse de données et de calcul haute performance (HPC) afin répondre aux défis informatiques les plus complexes au monde. Ses cœurs Tensor de troisième génération vous offrent un gain de performance considérable. Un seul GPU A100 peut vous aider à mettre en œuvre une puissance de calcul phénoménale ou - grâce à la technologie de GPU multi-instances (MIG) - vous pouvez le partitionner en sept instances de GPU pour accélérer tous les types de charges de travail.
Avec MIG, les huit GPU A100 du système DGX A100 peuvent être partitionnés en 56 instances de GPU, entièrement isolées et sécurisées au niveau matériel avec leur propre mémoire à bande passante élevée, un cache dédié et des cœurs de calcul à hautes performances. Les administrateurs peuvent ainsi mettre en œuvre des GPU parfaitement calibrés avec une qualité de service optimale pour de multiples charges de travail.
La technologie d’interconnexion NVIDIA® NVLink™ de troisième génération qui équipe le système DGX A100 autorise une bande passante directe GPU-vers-GPU pouvant atteindre 600 gigaoctets par seconde (Go/s), ce qui offre un rendement 10 fois plus élevé qu’avec la norme PCIe Gen4. DGX A100 inclut également la technologie NVIDIA NVSwitch™ de nouvelle génération, jusqu’à 2 fois plus rapide qu’avec les solutions de génération précédente.
Le système DGX A100 incorpore de nouveaux types d'adaptateurs Mellanox ConnectX-6 VPI HDR InfiniBand/Ethernet tournant à 200 Gb/s, ce qui vous permet de mettre en œuvre une structure réseau à haute vitesse pour les charges de travail d’IA à grande échelle.
DGX A100 intègre une pile logicielle testée et optimisée incluant un système d’exploitation dédié à l’IA, tous les logiciels système requis, des applications accélérées par GPU, des modèles pré-entraînés et bien plus encore grâce à NGC™.
Par défaut, DGX A100 fournit le plus haut niveau de sécurité pour les déploiements d’IA grâce à une philosophie multi-couches qui permet de sécuriser tous les principaux composants matériels et logiciels, y compris les lecteurs à chiffrement automatique, les conteneurs logiciels signés, les outils de gestion et de supervision, et bien plus encore.
En savoir plus sur les solutions d’assistance pour l’entreprise relatives aux systèmes NVIDIA DGX.
Infrastructure d’IA à haut niveau de leadership
Déclaration de confidentialité