概要
エージェント型 AI と推論モデルは、コンピューテーションの限界を再定義しています。 しかし、このような画期的進歩を最大限に活用するため、企業には、社内で推論を実行し、モデルとエージェント間で迅速に情報を受け渡しできるインフラが必要です。 インフラは、トレーニング、事後学習、推論の前段階で通信、調整、メモリ移動、遅延を費用対効果に優れた方法で処理する必要があります。
NVIDIA DGX™ Rubin NVL8 は、エージェント型 AI 時代の成功のブループリントを提供します。 NVIDIA Rubin アーキテクチャを基盤とする DGX Rubin NVL8 は、あらゆる AI ワークロードを高速化し、大規模なインテリジェンスを提供する目的で構築された、すぐに利用可能なインフラ ソリューションです。
特集
8 基の NVIDIA Rubin GPU を搭載した DGX Rubin NVL8 システムは、400 ペタフロップスの推論パフォーマンスと毎秒 160 テラバイト (TB/s) の高帯域幅メモリ (HBM) を提供します。これにより、インフラを通じてデータを可能な限り高速に転送できます。 DGX Rubin NVL8 は、第 6 世代 NVIDIA NVLink™ を活用して、大規模なモデル並列処理のためのシームレスなピアツーピア通信を実現します。
DGX Rubin NVL8 は、AI ライフサイクル全体でパフォーマンスを最適化することで経済性を劇的に向上させます。 推論ワークフローに特化したマルチエージェント エンジンと、ハードウェアのメモリ移動を最適化する専用の強化学習エンジンを備え、NVIDIA Blackwell ベースのシステムと比較して最大 3 倍の高速な強化学習を実現します。
NVIDIA Mission Control™ は、DGX Rubin NVL8 の構成から施設との統合、クラスターとワークロードの管理まで、オペレーションのあらゆる側面を高速化します。 インテリジェントな統合ソフトウェアにより、企業は冷却と電力イベントを制御し、インフラの回復力を再定義することが可能になります。
エンタープライズ AI のために一から構築された NVIDIA DGX プラットフォームは、NVIDIA DGX SuperPOD™ を搭載し、NVIDIA のソフトウェア、インフラ、専門知識の最高のものを最新の統一された AI 開発ソリューションとして組み合わせています。
仕様
| GPU | 8 基の NVIDIA Rubin GPU |
| 合計 GPU メモリ | 帯域幅 | 2.3 TB | 160 TB/s |
| パフォーマンス | NVFP4 Inference: 400 PF NVFP4 Training: 280 PF FP8/FP6 Training: 140 PF |
| CPU | 2 基の Intel® Xeon® 6776P プロセッサー |
| NVIDIA NVLink スイッチ システム | 4X |
| NVIDIA NVLink 帯域幅 | 28.8 TB/秒の総帯域幅 |
| システムの電源消費 | ~24 kW |
| ネットワーク | 8 つの OSFP ポートが 8 つのシングルポート NVIDIA® ConnectX®-9 VPI に対応
|
| ソフトウェア | NVIDIA DGX OS、Ubuntu、Red Hat Enterprise Linux、Rocky |
|
*仕様は変更される場合があります。 |
|
特別キャンペーン
NVIDIA DGX Rubin NVL8 について NVIDIA エキスパートにご相談ください。
NVIDIA DGX がエンタープライズ AI 構築の実証済みの標準である理由をご覧ください。
オンプレミスからホステッド ソリューションまで、柔軟なデプロイ オプションで、AI の可能性を最大限に引き出します。