Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
O supercomputador desktop mais avançado para IA com a tecnologia NVIDIA Grace Blackwell.
Inscreva-se para ser notificado quando o DGX Station estiver disponível.
Visão Geral
O NVIDIA DGX Station é diferente de qualquer computador desktop para IA já criado. É o primeiro sistema a ser criado com o Superchip NVIDIA GB300 Grace Blackwell Ultra Desktop e até 784GB de grande memória coerente, proporcionando um desempenho computacional sem precedentes para desenvolver e executar cargas de trabalho de treinamento e inferência de IA em larga escala no seu desktop. Combinando recursos de sistema de última geração com a plataforma NVIDIA® CUDA X-AI™, as DGX Stations são criadas especificamente para equipes que exigem a melhor plataforma de desenvolvimento de IA para desktop.
O DGX Station e o DGX Spark, com a tecnologia NVIDIA Grace Blackwell, colocam a IA ao alcance de desenvolvedores, pesquisadores e cientistas de dados.
O DGX Station possui uma GPU NVIDIA Blackwell Ultra, equipada com os núcleos NVIDIA CUDA® de última geração e os Núcleos Tensor de quinta geração, conectados a uma CPU NVIDIA Grace de alto desempenho por meio da interconexão NVIDIA® NVLink®-C2C, proporcionando a melhor comunicação e desempenho de sistema do setor.
As DGX Stations contam com a tecnologia dos Núcleos Tensor da Geração Blackwell mais recentes, permitindo IA de ponto flutuante (FP4) de 4 bits. Essa tecnologia dobra o desempenho e o tamanho dos modelos de última geração que a memória pode suportar, mantendo a alta precisão.
O NVIDIA ConnectX®-8 SuperNIC™ é otimizado para turbinar as cargas de trabalho de computação de IA de hiperescala. Com até 800 gigabits por segundo (Gb/s), o ConnectX-8 SuperNIC oferece conectividade de rede extremamente rápida e eficiente, melhorando muito o desempenho do sistema para fábricas de IA.
O NVIDIA Base OS implementa sistemas operacionais estáveis e totalmente qualificados para executar aplicações de IA, machine learning e análise na plataforma DGX. Ele inclui configurações específicas do sistema, drivers e ferramentas de diagnóstico e monitoramento. A execução do DGX Base OS permite escalonar com simplicidade as cargas de trabalho em diversos sistemas: de uma DGX Station a vários sistemas, bem como implantações de data center.
O NVIDIA NVLink-C2C amplia a tecnologia NVLink líder do setor para uma interconexão de chip para chip entre a GPU e a CPU, permitindo transferências de dados coerentes de alta largura de banda entre processadores e aceleradores.
Os modelos de IA continuam a crescer em escala e complexidade. O treinamento e a execução desses modelos na grande memória coerente do NVIDIA Grace Blackwell Ultra permitem que modelos de grande escala sejam treinados e executados com eficiência em um pool de memória, graças à interconexão do superchip C2C que contorna os gargalos dos sistemas tradicionais de CPU e GPU.
Desenvolvedores, pesquisadores e inventores de uma ampla variedade de domínios usam a programação de GPU para acelerar suas aplicações. As bibliotecas CUDA-X™ são criadas com base no CUDA para simplificar a adoção da plataforma de aceleração da NVIDIA no processamento de dados, IA e computação de alto desempenho. Com mais de 400 bibliotecas, os desenvolvedores podem criar, otimizar, implantar e escalonar facilmente aplicações em PCs, workstations, nuvem e supercomputadores, usando a plataforma CUDA.
As DGX Stations aproveitam as otimizações do sistema baseadas em IA que mudam o consumo de energia de forma inteligente com base na carga de trabalho ativa no momento, maximizando continuamente o desempenho e a eficiência.
A plataforma de computação acelerada da NVIDIA conta com uma extensa coleção de bibliotecas otimizadas para CUDA para acelerar o treinamento de deep learning e machine learning, combinada com a enorme memória e o rendimento do superchip da DGX Station. Por isso, ela constitui a plataforma mais avançada de desenvolvimento de IA em todos os setores, desde o desenvolvimento de manutenção preditiva até a análise de imagens médicas e aplicações de processamento de linguagem natural.
Com o software de IA da NVIDIA, incluindo bibliotecas de software de código aberto RAPIDS™, as GPUs reduzem substancialmente os custos de infraestrutura e fornecem desempenho superior para workflows de ciência de dados de ponta a ponta. O grande pool de memória coerente fornecido pelo superchip DGX Station permite que grandes data lakes sejam ingeridos diretamente na memória, removendo gargalos de ciência de dados e acelerando o rendimento.
Os modelos de IA estão se expandindo rapidamente em tamanho, complexidade e diversidade, ampliando os limites do possível. As DGX Stations aceleram a inferência para executar grandes modelos de IA localmente no sistema, proporcionando velocidades incríveis para a geração de tokens de grandes modelos de linguagem (LLM), análise de dados, criação de conteúdo, chatbots de IA e muito mais.
A DGX Station pode servir como desktop individual para um usuário ou funcionar como um nó de computação centralizado para vários membros da equipe, como um servidor de nuvem pessoal. Com a tecnologia de GPU Multi-Instância (MIG) da NVIDIA, a GPU pode particionar em até sete instâncias, cada uma totalmente isolada com sua própria memória de alta largura de banda, cache e núcleos de computação. Isso possibilita que os administradores ofereçam suporte a todas as cargas de trabalho, das menores às maiores, com qualidade de serviço (QoS) garantida e aumento do alcance dos recursos de computação acelerada para todos os usuários.
*Especificações preliminares, sujeitas a alterações
Inscreva-se para ser informado quando a DGX Station estiver disponível.
Política de Privacidade da NVIDIA