Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
Usine d'IA spécialement conçue pour le traitement de modèles d'IA de pointe.
Le système NVIDIA DGX GB200 a été spécialement conçu pour l'entraînement et l'inférence de modèles d'IA générative comportant plusieurs milliards de paramètres. Pensé comme une solution rackable à hautes performances, DGX GB200 est composé de différents racks à refroidissement liquide dotés de 36 superpuces NVIDIA GB200 Grace Blackwell, c'est-à-dire 36 CPU NVIDIA Grace et 72 GPU Blackwell connectés en tant qu'instance unique grâce à NVIDIA NVLink™. Vous pouvez connecter plusieurs racks entre eux à l'aide de la technologie NVIDIA Quantum InfiniBand pour gérer des centaines de milliers de superpuces GB200.
Découvrez comment les systèmes NVIDIA DGX GB200 accélèrent l'innovation en matière d'IA.
Découvrez l'impact positif de la plateforme NVIDIA DGX et de NVIDIA NeMo™ sur plusieurs entreprises de premier plan.
Avantages
Un plan de contrôle intelligent permet de suivre des milliers de points de données répartis sur du matériel, des logiciels et une infrastructure de Data Center afin de garantir un fonctionnement continu et l'intégrité des données, de planifier les opérations de maintenance et de reconfigurer automatiquement le cluster pour éviter les temps d'arrêt.
NVIDIA DGX GB200 peut s'adapter à des dizaines de milliers de superpuces NVIDIA GB200 et permet de procéder facilement à l'entraînement et à l'inférence avec des modèles d'IA générative de pointe comportant plusieurs milliards de paramètres.
Les superpuces NVIDIA GB200, dotées chacune d'un CPU NVIDIA Grace et de deux GPU NVIDIA Blackwell, sont connectées via l'interface NVLink de cinquième génération pour fournir 1,8 téraoctet par seconde (To/s) de bande passante GPU-à-GPU.
Ressources
NVIDIA DGX SuperPOD™ est une solution clé en main d'infrastructure de Data Center pour l'IA qui offre des performances sans compromis à tous les utilisateurs et avec toutes les charges de travail. DGX SuperPOD est configurable avec n'importe quel système DGX et fournit aux charges de travail d'entraînement et d'inférence de l'IA les plus exigeantes une infrastructure accélérée sans précédent aux performances évolutives, avec des résultats avérés dans toutes les industries. Les services informatiques peuvent ainsi fournir des performances sans compromis.
NVIDIA Mission Control est une solution qui rationalise les opérations des usines d'IA - des charges de travail à l'infrastructure sous-jacente - grâce à une expertise de premier plan proposée sous forme de logiciel. Cette solution logicielle de pointe équipe les Data Centers NVIDIA Blackwell et offre une agilité instantanée en matière d'inférence et d'entraînement, tout en fournissant une intelligence complète pour la résilience de l'infrastructure. Toutes les entreprises sont désormais en mesure d'exécuter l'IA avec un niveau d'efficacité hyperscale, ce qui simplifie et accélère les expérimentations relatives à l'IA.
Les services de NVIDIA pour les entreprises vous donnent accès à des spécialistes en assistance, en formation et en infrastructure pour votre infrastructure NVIDIA DGX. Les experts de NVIDIA sont disponibles à chaque étape de votre projet d'IA, c'est pourquoi ces services d'entreprise peuvent vous aider à faire fructifier vos projets plus rapidement que jamais.
Démarrage
La plateforme NVIDIA DGX est composée d'une grande variété de produits et de services adaptés aux besoins de toutes les entreprises axées sur l'IA.
NVIDIA DGX est la norme éprouvée sur laquelle repose l'IA d'entreprise.
Accédez aux guides de déploiement et de gestion pour NVIDIA DGX SuperPOD.
Déclaration de confidentialité de NVIDIA