Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
Le supercalculateur d'IA de bureau ultime basé sur NVIDIA Grace Blackwell.
Inscrivez-vous pour recevoir une notification lorsque la station DGX sera disponible.
Aperçu
NVIDIA DGX Station est différente de tous les ordinateurs de bureau d'IA conçus auparavant. C'est le premier système à être conçu avec la puce de bureau NVIDIA GB300 Grace Blackwell Ultra et jusqu'à 784 Go de grande mémoire cohérente, fournissant des performances de calcul sans précédent pour développer et exécuter des charges de travail d'entraînement et d'inférence de l'IA à grande échelle sur votre bureau. Combinant des capacités système de pointe avec la plateforme NVIDIA® CUDA X-AI™, les stations DGX sont conçues pour les équipes à la recherche de la meilleure plateforme de développement de l'IA de bureau.
DGX Station et DGX Spark, basés sur NVIDIA Grace Blackwell, placent l'IA entre les mains des développeurs, des chercheurs et des data scientists.
La station DGX est équipée d'un GPU NVIDIA Blackwell Ultra livré avec les cœurs NVIDIA CUDA® de dernière génération et les cœurs Tensor de cinquième génération, connectés à un CPU NVIDIA Grace hautes performances via l'interconnexion NVIDIA® NVLink®-C2C, fournissant des communications et des performances système hors pair.
Les stations DGX sont alimentées par les derniers cœurs Tensor de génération Blackwell, permettant une IA à virgule flottante (FP4) 4 bits. Cela double les performances et la taille des modèles nouvelle génération que la mémoire peut prendre en charge tout en maintenant une précision élevée.
NVIDIA ConnectX®-8 SuperNIC™ est optimisé pour booster les charges de travail de calcul d'IA hyperscale. Avec jusqu'à 800 gigabits par seconde (Gbit/s), ConnectX-8 SuperNIC fournit une connectivité réseau extrêmement rapide et efficace, améliorant considérablement les performances du système pour les usines d'IA.
NVIDIA Base OS implémente des systèmes d'exploitation stables et entièrement qualifiés pour exécuter des applications d'IA, d'apprentissage automatique et d'analyse sur la plateforme DGX. Elle inclut des configurations, des pilotes et des outils de diagnostic et de surveillance spécifiques au système. L'exécution de DGX Base OS permet une mise à l'échelle simplifiée des charges de travail sur divers systèmes, d'une station DGX à plusieurs systèmes, en passant par les déploiements de Data Centers.
NVIDIA NVLink-C2C étend la technologie NVLink de pointe à une interconnexion puce à puce entre le GPU et le CPU, permettant des transferts de données cohérents à bande passante élevée entre les processeurs et les accélérateurs.
Les modèles d'IA continuent de croître en échelle et en complexité. L'entraînement et l'exécution de ces modèles dans NVIDIA Grace Blackwell Ultra permet d'entraîner et de fonctionner efficacement des modèles à grande échelle dans un seul pool de mémoire, grâce à l'interconnexion C2C superpuce qui contourne les goulets d'étranglement des systèmes CPU et GPU traditionnels.
Les développeurs, les chercheurs et les inventeurs utilisent la programmation GPU pour accélérer leurs applications dans un large éventail de domaines. Les bibliothèques CUDA-X™ sont conçues à partir de CUDA pour simplifier l'adoption de la plateforme d'accélération de NVIDIA pour le traitement des données, l'IA et le calcul hautes performances. Avec plus de 400 bibliothèques, les développeurs peuvent facilement développer, optimiser, déployer et faire évoluer des applications sur des PC, des stations de travail, le Cloud et les supercalculateurs à l'aide de la plateforme CUDA.
Les stations DGX tirent parti des optimisations de systèmes basées sur l'IA qui déplacent intelligemment la puissance en fonction de la charge de travail actuellement active, maximisant continuellement les performances et l'efficacité.
Avec une bibliothèque complète de bibliothèques optimisées pour CUDA pour accélérer l'entraînement du deep learning et de l'apprentissage automatique, combinée à la mémoire massive et au débit Superpuce de DGX Station, la plateforme de calcul accéléré de NVIDIA fournit la plateforme de développement de l'IA ultime dans tous les secteurs, du développement de la maintenance prédictive, à l'analyse d'imagerie médicale, en passant par les applications de traitement du langage naturel.
Grâce aux logiciels NVIDIA AI, notamment les bibliothèques logicielles open source RAPIDS™, les GPU réduisent considérablement les coûts d'infrastructure et fournissent des performances supérieures pour les workflows de Data Science de bout en bout. Le grand pool de mémoire cohérent fourni par la superpuce DGX Station permet d'ingérer des lacs de données massifs directement dans la mémoire, éliminant ainsi les goulets d'étranglement de la Data Science et accélérant le débit.
Les modèles d’IA se développent rapidement en taille, en complexité et en diversité, repoussant les limites de ce qui est possible. Les stations DGX accélèrent l'inférence pour exécuter de grands modèles d'IA localement sur le système, fournissant une vitesse incroyable pour la génération de jetons de grands modèles de langage (LLM), l'analyse de données, la création de contenu, les chatbots d'IA, et bien plus encore.
La station DGX peut servir de bureau individuel pour un utilisateur ou fonctionner comme nœud de calcul centralisé pour plusieurs membres d'une équipe en tant que serveur Cloud personnel. Grâce à la technologie GPU multi-instances (MIG) de NVIDIA, le GPU peut partitionner en jusqu'à sept instances, chacune entièrement isolée avec sa propre mémoire, son cache et ses cœurs de calcul à bande passante élevée. Les administrateurs peuvent ainsi assurer le traitement de chaque charge de travail, quelle qu’en soit la taille, avec une qualité de service (QdS) garantie et l’extension de l’accès aux ressources de calcul accéléré à chaque utilisateur.
*Spécifications préliminaires sujettes à changement
Déclaration de confidentialité de NVIDIA