Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
El último superordenador de IA de escritorio con tecnología de NVIDIA Grace Blackwell.
Regístrese para recibir una notificación cuando DGX Station esté disponible
Descripción
NVIDIA DGX Station es diferente a cualquier ordenador de sobremesa de IA fabricado antes. Es el primer sistema creado con el Superchip de escritorio NVIDIA GB300 Grace Blackwell Ultra y hasta 784 GB masivos de memoria coherente de gran tamaño que ofrece una cantidad sin precedentes de rendimiento de computación para desarrollar y ejecutar cargas de trabajo de entrenamiento e inferencia de IA a gran escala en su escritorio. Al combinar capacidades de sistema de vanguardia con la plataforma NVIDIA® CUDA X-AI™, DGX Stations está diseñado específicamente para equipos que requieren la mejor solución de desarrollo de IA para equipos de sobremesa.
DGX Station y DGX Spark con tecnología de NVIDIA Grace Blackwell colocan la IA en manos de desarrolladores, investigadores y científicos de datos.
DGX Station cuenta con una GPU NVIDIA Blackwell Ultra, que viene con la última generación de núcleos NVIDIA CUDA® y núcleos Tensor de quinta generación, conectada a una CPU NVIDIA Grace de alto rendimiento a través de la interconexión NVIDIA® NVLink®-C2C, lo que ofrece la mejor comunicación y rendimiento de sistema de su clase.
Las estaciones DGX cuentan con la tecnología de los últimos núcleos Tensor de la generación Blackwell y permite una IA de punto flotante de 4 bits (FP4). Esto duplica el rendimiento y el tamaño de los modelos de próxima generación compatibles con la memoria a la vez que mantiene una gran precisión.
La SuperNIC™ NVIDIA ConnectX®-8 está optimizada para impulsar las cargas de trabajo de computación de IA a hiperescala. Con hasta 800 gigabits por segundo (Gb/s), la SuperNIC ConnectX-8 ofrece conectividad de red extremadamente rápida y eficiente. Esto mejora significativamente el rendimiento del sistema para fábricas de IA.
El NVIDIA Base OS implementa sistemas operativos estables y totalmente cualificados para ejecutar aplicaciones de IA, aprendizaje automático y análisis en la plataforma DGX. Incluye configuraciones específicas del sistema, controladores y herramientas de diagnóstico y supervisión. La ejecución de DGX Base OS permite un escalado simplificado de cargas de trabajo en diversos sistemas, desde una DGX Station hasta varios sistemas e implementaciones de centros de datos.
NVIDIA NVLink-C2C amplía la tecnología NVLink líder en el sector a una interconexión de chip a chip entre la GPU y la CPU, y permite transferencias de datos coherentes de gran ancho de banda entre procesadores y aceleradores.
Los modelos de IA continúan creciendo en escala y complejidad. El entrenamiento y la ejecución de estos modelos dentro de la gran memoria coherente de NVIDIA Grace Blackwell Ultra permite entrenar y ejecutar de forma eficiente modelos a escala masiva dentro de una agrupación de memoria, gracias a la interconexión del superchip C2C que evita los cuellos de botella de los sistemas tradicionales de CPU y GPU.
Desarrolladores, investigadores e inventores de una amplia gama de disciplinas utilizan la programación por GPU para acelerar sus aplicaciones. Las bibliotecas de CUDA-X™ se basan en CUDA para simplificar la adopción de la plataforma de aceleración de NVIDIA en el procesamiento de datos, inteligencia artificial e informática de alto rendimiento Con más de 400 bibliotecas, los desarrolladores pueden crear, optimizar, implementar y escalar fácilmente aplicaciones en ordenadores, estaciones de trabajo, la nube y superordenadores que utilizan la plataforma CUDA.
DGX Stations aprovechan las optimizaciones de sistema basadas en IA que cambian de forma inteligente la potencia en función de la carga de trabajo activa en este momento y maximizan continuamente el rendimiento y la eficiencia.
La plataforma de computación acelerada de NVIDIA, con una extensa biblioteca de bibliotecas optimizadas por CUDA para acelerar el aprendizaje profundo y el entrenamiento de aprendizaje automático, combinada con la memoria masiva y el rendimiento del superchip de DGX Station, ofrece la plataforma de desarrollo de IA definitiva en todos los sectores, desde el desarrollo de mantenimiento predictivo hasta el análisis del diagnóstico por imagen y las aplicaciones de procesamiento de lenguaje natural.
Las GPU, con el software NVIDIA AI, incluidas las bibliotecas de software de código abierto RAPIDS™, reducen sustancialmente los costes de infraestructura y proporcionan un rendimiento superior para flujos de trabajo de ciencia de datos de extremo a extremo. La gran agrupación de memoria coherente proporcionada por el superchip DGX Station permite ingerir lagos de datos masivos directamente en la memoria, lo que elimina cuellos de botella de la ciencia de datos y acelera el rendimiento.
Los modelos de IA están creciendo rápidamente en tamaño, complejidad y diversidad, poniendo a prueba los límites de lo que se considera posible. DGX Stations acelera la inferencia para ejecutar modelos de IA de gran tamaño de forma local en el sistema, lo que ofrece una velocidad increíble para la generación de tokens de modelos lingüísticos de gran tamaño (LLM), análisis de datos, creación de contenido, chatbots de IA y mucho más.
DGX Station puede servir de escritorio individual para un usuario o función como un nodo informático centralizado para varios miembros del equipo como un servidor en la nube personal. La GPU, con la tecnología NVIDIA GPU multiinstancia, puede particionar la GPU en hasta siete instancias, cada una totalmente aislada con su propia memoria de gran ancho de banda, caché y núcleos de computación. Esto permite a los administradores admitir todas las cargas de trabajo, desde las más pequeñas hasta las más grandes, con calidad de servicio (QoS) garantizada, y extender el alcance de los recursos informáticos acelerados a cada usuario.
*Especificaciones preliminares, sujetas a cambios
Política de privacidad de NVIDIA