Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
La mejor supercomputadora de desktop con IA con NVIDIA Grace Blackwell.
Regístrese para recibir una notificación cuando DGX Station esté disponible.
Descripción General
NVIDIA DGX Station es diferente a cualquier equipo de desktop con IA jamás creado. Es el primer sistema construido con el superchip NVIDIA GB300 Grace Blackwell Ultra Desktop y con hasta 784GB de memoria grande y coherente, lo que ofrece una cantidad sin precedentes de desempeño de computación para desarrollar y ejecutar cargas de trabajo de entrenamiento e inferencia de IA a gran escala en su equipo de desktop. Al combinar las capacidades de vanguardia del sistema con la plataforma NVIDIA® CUDA X-AI™, las DGX Stations están hechas específicamente para equipos que exigen la mejor plataforma de desarrollo de IA para desktop.
DGX Station y DGX Spark, con la tecnología NVIDIA Grace Blackwell, ponen la IA en manos de los desarrolladores, investigadores y científicos de datos.
La DGX Station cuenta con una GPU NVIDIA Blackwell Ultra, que viene con los núcleos NVIDIA CUDA® de última generación y los Núcleos Tensor de quinta generación, conectada a una CPU NVIDIA Grace de alto desempeño a través de la interconexión NVIDIA® NVLink®-C2C, lo que ofrece la mejor comunicación y el mejor desempeño de sistema de su clase.
Las DGX Stations funcionan con los Núcleos Tensor de la generación Blackwell más recientes, lo que habilita una IA de punto flotante de 4 bits (FP4). Esto duplica el desempeño y el tamaño de los modelos de última generación que la memoria puede admitir, al tiempo que mantiene una alta exactitud.
NVIDIA ConnectX®-8 SuperNIC™ está optimizada para superpotenciar las cargas de trabajo de computación de IA a hiperescala. Con hasta 800 gigabits por segundo (Gb/s), ConnectX-8 SuperNIC ofrece una conectividad de red extremadamente rápida y eficiente, lo que mejora de forma significativa el desempeño del sistema para las fábricas de IA.
NVIDIA Base OS implementa sistemas operativos estables y totalmente calificados para ejecutar aplicaciones de IA, machine learning y análisis en la plataforma DGX. Incluye configuraciones específicas del sistema, drivers y herramientas de diagnóstico y supervisión. La ejecución de DGX Base OS permite un escalado simplificado de las cargas de trabajo en diversos sistemas, desde una DGX Station hasta múltiples sistemas e implementaciones de data center.
NVIDIA NVLink-C2C extiende la tecnología NVLink, líder en la industria, a una interconexión de chip a chip entre la GPU y la CPU, lo que permite transferencias de datos coherentes con alto ancho de banda entre procesadores y aceleradores.
Los modelos de IA continúan creciendo en escala y complejidad. El entrenamiento y la ejecución de estos modelos dentro de la gran memoria coherente de NVIDIA Grace Blackwell Ultra permiten entrenar y ejecutar de manera eficiente modelos a escala masiva dentro de una reserva de memoria, gracias a la interconexión de chip a chip (C2C) del superchip, que evita los cuellos de botella de los sistemas tradicionales de CPU y GPU.
Los desarrolladores, investigadores e inventores en una amplia gama de dominios usan la programación por GPU para acelerar sus aplicaciones. Las bibliotecas de CUDA-X™ están basadas en CUDA para simplificar la adopción de la plataforma de aceleración de NVIDIA en el procesamiento de datos, la IA y la computación de alto desempeño. Con más de 400 bibliotecas, los desarrolladores pueden crear, optimizar, implementar y escalar fácilmente aplicaciones en PC, workstations, la nube y supercomputadoras con la plataforma CUDA.
Las DGX Stations aprovechan las optimizaciones del sistema basadas en IA que cambian el consumo de energía de forma inteligente en función de la carga de trabajo activa, lo que maximiza continuamente el desempeño y la eficiencia.
Con una extensa colección de bibliotecas optimizadas para CUDA para acelerar el entrenamiento de deep learning y machine learning, combinada con la enorme memoria y el desempeño del superchip de DGX Station, la plataforma de computación acelerada de NVIDIA proporciona la mejor plataforma de desarrollo de IA para todas las industrias, desde el desarrollo de mantenimiento predictivo hasta el análisis de imágenes médicas y aplicaciones de procesamiento de lenguaje natural.
Con el software de IA de NVIDIA, que incluye las bibliotecas de software de código abierto RAPIDS™, las GPU reducen sustancialmente los costos de infraestructura y ofrecen un desempeño superior para workflows completos de ciencia de datos. La gran reserva de memoria coherente proporcionada por el superchip DGX Station permite ingerir vastas cantidades de datos directamente en la memoria, lo que elimina los cuellos de botella de la ciencia de datos y acelera el desempeño.
Los modelos de IA se expanden rápidamente en tamaño, complejidad y diversidad, ampliando el horizonte de lo posible. Las DGX Stations aceleran la inferencia para ejecutar grandes modelos de IA de forma local en el sistema, lo que ofrece una velocidad increíble para la generación de tókenes de grandes modelos de lenguaje (LLM), análisis de datos, creación de contenido, chatbots de IA y más.
La DGX Station puede servir como un equipo de desktop individual para un usuario o funcionar como un nodo de computación centralizado para varios miembros del equipo, como un servidor de nube personal. Con la tecnología de GPU de Instancias Múltiples (MIG) de NVIDIA, la GPU puede dividirse en hasta siete instancias, cada una totalmente aislada con su propia memoria de alto ancho de banda, caché y núcleos de computación. Esto les brinda a los administradores la capacidad de admitir cada carga de trabajo, desde la más pequeña hasta la más grande, con calidad de servicio (QoS) garantizada, y extiende el alcance de los recursos de computación acelerada a cada usuario.
*Especificaciones preliminares, sujetas a cambios
Política de Privacidad de NVIDIA