Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
Il più avanzato supercomputer desktop IA basato su NVIDIA Grace Blackwell.
Iscriviti per ricevere una notifica quando la DGX Station sarà disponibile.
Panoramica
NVIDIA DGX Station è diversa da qualsiasi computer desktop IA mai creato prima. È il primo sistema realizzato con il superchip per desktop NVIDIA GB300 Grace Blackwell Ultra e dotato di un'enorme capacità di memoria coerente di ben 784 GB, che garantisce prestazioni di calcolo senza precedenti per lo sviluppo e l'esecuzione di carichi di lavoro di addestramento e inferenza IA su larga scala sul desktop. Combinando capacità di sistema all'avanguardia con la piattaforma NVIDIA® CUDA X-AI™, le DGX Station sono state progettate appositamente per i team che necessitano della migliore piattaforma desktop di sviluppo IA.
DGX Station e DGX Spark, basati su NVIDIA Grace Blackwell, mettono l'IA a disposizione di sviluppatori, ricercatori e data scientist.
La DGX Station è dotata di una GPU NVIDIA Blackwell Ultra, con core NVIDIA CUDA® di ultima generazione e Tensor Core di quinta generazione, collegati a una CPU NVIDIA Grace ad alte prestazioni tramite l'interconnessione NVIDIA® NVLink®-C2C, che offre le migliori prestazioni e comunicazioni di sistema della categoria.
Le DGX Station sono basate sui più recenti Tensor Core della generazione Blackwell, che consentono l'IA a virgola mobile a 4 bit (FP4). Questo raddoppia le prestazioni e le dimensioni dei modelli di nuova generazione che la memoria può supportare, mantenendo un'elevata precisione.
NVIDIA ConnectX®-8 SuperNIC™ è ottimizzato per potenziare i carichi di lavoro di elaborazione IA iperscalabili. Con un massimo di 800 gigabit al secondo (Gb/s), ConnectX-8 SuperNIC offre una connettività di rete estremamente veloce ed efficiente, migliorando in modo significativo le prestazioni di sistema per le fabbriche IA.
NVIDIA Base OS implementa sistemi operativi stabili e completamente qualificati per l'esecuzione di applicazioni di IA, machine learning e analisi sulla piattaforma DGX. Include configurazioni, driver e strumenti di diagnostica e monitoraggio specifici per il sistema. L'esecuzione di DGX Base OS consente di semplificare la scalabilità dei carichi di lavoro su diversi sistemi, da una singola DGX Station a più sistemi fino alle distribuzioni dei data center.
NVIDIA NVLink-C2C estende la tecnologia NVLink leader di settore a un'interconnessione chip-to-chip tra GPU e CPU, consentendo trasferimenti di dati coerenti a elevata larghezza di banda tra processori e acceleratori.
I modelli IA continuano a crescere in scala e complessità. L'addestramento e l'esecuzione di questi modelli all'interno della memoria coerente di grandi dimensioni di NVIDIA Grace Blackwell Ultra consentono di addestrare ed eseguire in modo efficiente modelli su larghissima scala in un unico pool di memoria, grazie all'interconnessione superchip C2C che aggira i colli di bottiglia dei sistemi tradizionali di CPU e GPU.
Sviluppatori, ricercatori e inventori in tantissimi settori usano la programmazione con GPU per accelerare le applicazioni. Le librerie CUDA-X™ si basano su CUDA per semplificare l'adozione della piattaforma di accelerazione di NVIDIA per l'elaborazione dati, l'IA e il calcolo ad alte prestazioni. Con oltre 400 librerie, gli sviluppatori possono facilmente creare, ottimizzare, distribuire e scalare le applicazioni su PC, workstation, cloud e supercomputer utilizzando la piattaforma CUDA.
Le DGX Station sfruttano le ottimizzazioni di sistema basate sull'IA che trasferiscono in modo intelligente l'alimentazione in base al carico di lavoro attualmente attivo, massimizzando continuamente le prestazioni e l'efficienza.
Grazie a un'ampia raccolta di librerie ottimizzate per CUDA per accelerare l'addestramento del deep learning e machine learning, in combinazione con l'enorme capacità di memoria e il throughput del superchip della DGX Station, la piattaforma di computing accelerato di NVIDIA offre la piattaforma di sviluppo IA più avanzata in tutti i settori, dallo sviluppo della manutenzione predittiva all'analisi della diagnostica per immagini fino alle applicazioni di elaborazione del linguaggio naturale.
Con il software NVIDIA AI, che comprende le librerie software open source RAPIDS™, le GPU riducono in modo sostanziale i costi dell'infrastruttura e offrono prestazioni superiori per flussi di lavoro di scienza dei dati end-to-end. Il pool di memoria coerente di grandi dimensioni fornito dal superchip della DGX Station consente l'immissione di enormi data lake direttamente nella memoria, eliminando i colli di bottiglia della scienza dei dati e accelerando il throughput.
I modelli di intelligenza artificiale si stanno rapidamente espandendo in termini di dimensioni, complessità e diversità, oltrepassando i confini di ciò che è possibile. Le DGX Station accelerano l'inferenza per l'esecuzione di modelli IA di grandi dimensioni localmente sul sistema, offrendo una velocità incredibile per la generazione di token di modelli linguistici di grandi dimensioni (LLM), l'analisi dei dati, la creazione di contenuti, chatbot IA e altro ancora.
La DGX Station può fungere da desktop singolo per un utente o funzionare come nodo di calcolo centralizzato per più membri del team come server cloud personale. Grazie alla tecnologia NVIDIA Multi-Instance GPU (MIG), la GPU può essere partizionata in un numero massimo di sette istanze, ciascuna completamente isolata e dotata di memoria a elevata larghezza di banda, cache e core di calcolo. Gli amministratori possono ora supportare qualsiasi carico di lavoro, dal più piccolo al più grande, con qualità del servizio (QoS) garantita ed estendendo la portata delle risorse di computing accelerato a tutti gli utenti.
*Specifiche preliminari, soggette a modifiche
Informativa sulla privacy NVIDIA