Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
NVIDIA Grace Blackwell を搭載した究極のデスクトップ AI スーパーコンピューター。
登録すると、DGX Station が利用可能になったときに通知を受け取ることができます。
概要
NVIDIA DGX Station は、AIを構築し実行するために一から設計された新しい世代のコンピューターの一翼を担います。NVIDIA GB300 GraceBlackwell Ultra デスクトップ スーパーチップと最大 784GB の大規模コヒーレント メモリで構築された初のシステムであり、デスクトップで大規模な AI トレーニングと推論ワークロードを開発し実行するための前例のない計算性能を提供します。最先端のシステム機能と NVIDIA® CUDA X-AI™ プラットフォームを組み合わせた DGX Station は、最高のデスクトップ AI 開発プラットフォームを求めるチーム向けに設計されています。
NVIDIA Grace Blackwell を搭載した DGX Station と DGX Spark は、開発者、研究者、データ サイエンティストの手に AI を渡します。
DGX Station には、最新世代のNVIDIA CUDA® コアと第 5 世代の Tensor コアを搭載した NVIDIA Blackwell Ultra GPU が組み込まれ、NVIDIA® NVLink®-C2C インターコネクトを介して高性能 NVIDIA Grace CPU に接続することで、クラス最高のシステム通信とパフォーマンスを実現します。
DGX Station は最新の Blackwell世代 Tensor コアを搭載し、4 ビット浮動小数点 (FP4) AI を実現します。これにより、高い精度を維持しながらメモリがサポートできる次世代モデルのパフォーマンスとサイズを倍増します。
NVIDIA ConnectX®-8 SuperNIC™ は、超大規模 AI コンピューティング ワークロードを加速するように最適化されています。最大 800 ギガビット/秒 (Gb/s) を備えた ConnectX-8 SuperNIC は、極めて高速で効率的なネットワーク接続を提供し、AI ファクトリー向けのシステム性能を大幅に向上させます。
NVIDIA Base OS は、DGXプラットフォームで AI、機械学習、分析アプリケーションを実行するための安定した、完全に検証されたオペレーティング システムを実装します。システム固有の構成、ドライバー、診断と監視ツールが含まれています。 複数の DGX Station システム、DGX Cloud、その他のアクセラレーテッド データ センターまたはクラウド インフラ全体で簡単に拡張できます。
NVIDIA NVLink-C2Cは、業界をリードする NVLink 技術を、GPU と CPU 間のチップ間インターコネクトに拡張し、プロセッサーとアクセラレーター間の高帯域幅コヒーレント データ転送を可能にします。
AI モデルは、規模と複雑さが増大し続けています。NVIDIA Grace Blackwell Ultra の大容量コヒーレント メモリは、従来の CPU および GPU システムのボトルネックを回避する C2C スーパーチップ インターコネクトにより、大規模モデルを 1 つのメモリ プール内で効率的にトレーニングし実行できるようにします。
さまざまな分野の開発者、研究者、発明者が、GPU プログラミングでアプリケーションを高速化しています。CUDA-X™ ライブラリはデータ処理、AI、高性能コンピューティング (HPC) など、幅広い分野で NVIDIA 高速化プラットフォームを簡単に採用できるように、CUDA を基盤に構築されています。400 を超えるライブラリにより、開発者は、NVIDIA アクセラレーテッド PC 、ワークステーション、クラウド、データセンター全体でアプリケーションを簡単に構築、最適化、デプロイ、拡張できます。
DGX Station は、現在アクティブなワークロードに基づいて電力をインテリジェントに調整し、パフォーマンスと効率性を継続的に最大化するAI ベースのシステム最適化を活用しています。
NVIDIA のアクセラレーテッド コンピューティング プラットフォームは、ディープラーニングと機械学習トレーニングを高速化するための CUDA 最適化ライブラリの広範なコレクションと、DGX Station の膨大なメモリとスーパーチップ スループットを組み合わせることで、予測保守の開発から医療用画像分析、自然言語処理アプリケーションまで、あらゆる業界で究極の AI 開発プラットフォームを提供します。
RAPIDS™ オープンソース ソフトウェア ライブラリを含む NVIDIA AI ソフトウェアにより、GPU はインフラコストを大幅に削減し、エンドツーエンドのデータ サイエンス ワークフローに優れたパフォーマンスを提供します。DGX Station スーパーチップが提供する大規模なコヒーレント メモリ プールにより、大規模なデータ レイクをメモリに直接取り込むことが可能になり、データ サイエンスのボトルネックを排除し、スループットを高速化します。
AI モデルは、規模、複雑さ、多様性の点で急速に拡大し、可能性の限界を押し広げています。DGX Station は、システム上で大規模な AI モデルをローカルで実行するための推論を高速化し、大規模言語モデル (LLM) トークン生成、データ分析、コンテンツ作成、AI チャットボットなどに驚異的なスピードを提供します。
DGX Station は、1 人のユーザー向けの個人デスクトップとしても、パーソナル クラウド サーバーとして複数のチーム メンバー向けの集中型コンピューティング ノードとしても機能します。NVIDIA マルチインスタンス GPU(MIG)テクノロジにより、GPU は最大 7 つのインスタンスにパーティション化でき、それぞれが独自の高帯域幅メモリ、キャッシュ、コンピューティング コアで完全に分離されています。これにより管理者は保証されたサービス品質 (QoS) であらゆるワークロードに対応でき、アクセラレーテッド コンピューティング リソースをすべてのユーザーに提供できます。
*暫定仕様。変更される可能性があります。
NVIDIA プライバシー ポリシー