Système universel pour les infrastructures d’IA
Système universel dédié aux charges de travail d’IA, NVIDIA DGX™ A100 offre une densité de calcul sans précédent, des performances foudroyantes et une polyvalence incomparable au sein de la toute première solution à 5 pétaflops de l’industrie. NVIDIA DGX A100 repose sur l’accélérateur le plus avancé au monde, le GPU NVIDIA A100 Tensor Core, pour permettre aux entreprises de consolider leurs workflows d’analyse de données, d’entraînement et d’inférence grâce à une infrastructure d’IA unifiée et facile à déployer - offrant en outre un accès simplifié à des ressources spécialisées de NVIDIA et à des experts de l’intelligence artificielle.
Système universel pour les infrastructures d’IA, NVIDIA DGX A100 peut traiter une grande variété de charges de travail allant de l’analyse de données à l’entraînement en passant par l’inférence. DGX A100 est basé sur NVIDIA Base Command, le système d’exploitation pour les Data Centers accélérés par GPU. Doté d’une puissance de calcul sans précédent de 5 pétaflops dans une configuration au format 6U, le système A100 définit un nouveau standard pour la densité de calcul et remplace les infrastructures héritées avec une plateforme unique pour toutes les charges de travail d’IA.
NVIDIA DGXperts est un programme qui regroupe une équipe internationale de plus de 20 000 professionnels, spécialisés dans l’intelligence artificielle et possédant plus d’une décennie d’expérience, qui vous aideront à maximiser votre retour sur investissement avec les systèmes DGX.
NVIDIA DGX A100 est le tout premier système d’IA au monde basé sur le GPU NVIDIA A100 Tensor Core à hautes performances. Équipé d’un total de huit GPU A100 avec 320 Go ou 640 Go de mémoire dédiée, le système A100 délivre une accélération incomparable du calcul informatique et a été spécialement optimisé pour l’environnement logiciel NVIDIA CUDA-X™. Il prend en charge la pile de solutions de bout en bout de NVIDIA pour Data Center.
Le système NVIDIA DGX A100 comporte des adaptateurs réseau NVIDIA® ConnectX®-7 InfiniBand/Ethernet offrant une bande passante bidirectionnelle maximale de 500 Gigaoctets par seconde (Go/s). Cette fonctionnalité s’ajoute aux nombreuses autres innovations technologiques qui font du système DGX A100 une base fondamentale des clusters avancés d’IA tels que NVIDIA DGX SuperPOD™, la solution d’entreprise incontournable pour les infrastructures d’IA à haut degré d’évolutivité.
Grâce à une plateforme à la pointe de la technologie, des outils et des logiciels spécialement optimisés ainsi que des services de conseil sur mesure, le kit de démarrage pour l’IA de NVIDIA vous fournit tout ce dont vos équipes ont besoin pour une mise en service rapide de vos applications d’IA. Ne perdez plus de temps et d’argent à configurer une plateforme d’IA. Connectez-vous immédiatement pour lancer vos projets en une journée, définissez des cas d’utilisation en une semaine, puis commencez à produire des modèles très rapidement.
Entraînement DLRM
Rendement jusqu’à 3 fois plus élevé pour l’entraînement de modèles complexes d’IA
DLRM on HugeCTR framework, precision = FP16 | 1x DGX A100 640GB batch size = 48 | 2x DGX A100 320GB batch size = 32 | 1x DGX-2 (16x V100 32GB) batch size = 32. Gains de rendement normalisés selon le nombre de GPU.
Inférence RNN-T : flux unique
Rendement jusqu’à 1,25 fois plus élevé pour les inférences d’IA
MLPerf 0.7 RNN-T measured with (1/7) MIG slices. Framework: TensorRT 7.2, dataset = LibriSpeech, precision = FP16.
Benchmark d’analyse pour le Big Data
Rendement jusqu’à 83 fois plus élevé qu’avec un CPU Rendement 2 fois plus élevé qu’avec un DGX A100 320 Go
Benchmark d’analyse pour le Big Data | 30 requêtes d’analyse, ETL, ML, NLP sur un jeu de données de 10 To | CPU : 19x Intel Xeon Gold 6252 2,10 GHz, Hadoop | 16x DGX-1 (8x V100 avec 32 Go chacun), RAPIDS/Dask | 12x DGX A100 320 Go et 6x DGX A100 640 Go, RAPIDS/Dask/BlazingSQL. Gains de rendement normalisés selon le nombre de GPU.
18 GPU NVIDIA A100 avec 640 Go de mémoire GPU totale 12 liaisons NVLink par GPU, 600 Go/s de bande passante bidirectionnelle GPU-vers-GPU
26 modules NVIDIA NVSwitch 4,8 To/s de bande passante bidirectionnelle, soit 2 fois plus que la génération précédente
3Jusqu’à 10 adaptateurs NVIDIA Connectx-7 à 200 Gbit/s Bande passante bidirectionnelle maximale de 500 Go/s
4 Deux CPU AMD 64 coeurs et 2 To de mémoire système 3,2 fois plus de cœurs pour prendre en charge les opérations d’IA les plus intensives
5 Disques SSD NVME Gen4 de 30 To 50 Go/s de bande passante maximale, 2 fois plus rapide qu’un SSD NVME Gen3
Découvrez en détail le nouveau NVIDIA DGX A100
Le GPU NVIDIA A100 Tensor Core offre des capacités d’accélération sans précédent pour les workflows d’intelligence artificielle (IA), d’analyse de données et de calcul haute performance (HPC) afin répondre aux défis informatiques les plus complexes au monde. Ses cœurs Tensor de troisième génération vous offrent un gain de performance considérable. Un seul GPU A100 peut vous aider à mettre en œuvre une puissance de calcul phénoménale ou - grâce à la technologie de GPU multi-instances (MIG) - vous pouvez le partitionner en sept instances de GPU pour accélérer tous les types de charges de travail.
Avec MIG, les huit GPU A100 du système DGX A100 peuvent être partitionnés en 56 instances de GPU, entièrement isolées et sécurisées au niveau matériel avec leur propre mémoire à bande passante élevée, un cache dédié et des cœurs de calcul à hautes performances. Les administrateurs peuvent ainsi mettre en œuvre des GPU parfaitement calibrés avec une qualité de service optimale pour de multiples charges de travail.
La technologie d’interconnexion NVIDIA® NVLink™ de troisième génération qui équipe les produits A100 autorise une bande passante directe GPU-vers-GPU pouvant atteindre 600 gigaoctets par seconde (Go/s), ce qui offre un rendement 10 fois plus élevé qu’avec la norme PCIe Gen4. DGX A100 prend également en charge la technologie NVIDIA NVSwitch™ de nouvelle génération, qui est deux fois plus rapide que la génération précédente.
Le système DGX A100 incorpore de nouveaux types d'adaptateurs NVIDIA ConnectX-7 InfiniBand et VPI (InfiniBand ou Ethernet) tournant à 200 Gbit/s, ce qui vous permet de mettre en œuvre une structure réseau à haute vitesse pour les charges de travail d’IA à grande échelle. Les systèmes DGX A100 sont également disponibles avec des adaptateurs ConnectX-6.
DGX A100 intègre une pile logicielle testée et optimisée incluant un système d’exploitation dédié à l’IA, tous les logiciels système requis, des applications accélérées par GPU, des modèles pré-entraînés et bien plus encore grâce à NGC™.
DGX A100 fournit le plus haut niveau de sécurité pour les déploiements d’IA grâce à une approche multi-couches qui permet de sécuriser tous les principaux composants matériels et logiciels, y compris le BMC (Baseboard Management Controller), la carte CPU, la carte GPU, les lecteurs à chiffrement automatique et le service de démarrage sécurisé.
En savoir plus sur l’assistance d’entreprise pour les systèmes NVIDIA DGX
Infrastructure d’IA à haut niveau de leadership
NVIDIA – Charte de confidentialité