NVIDIA DGX B200

NVIDIA DGX B200

AI センター オブ エクセレンスの基盤

画期的なイノベーションに支えられる革新的な効率性

NVIDIA DGX™ B200 は、企業規模を問わず、AI 導入のどの段階においても、パイプラインの開発から導入までを可能にする統合 AI プラットフォームです。 第 5 世代の NVIDIA® NVLink® で相互接続された 8 基の NVIDIA B200 Tensor コア GPU を搭載した DGX B200 は、前世代と比較してトレーニング性能は 3 倍、推論性能は 15 倍の最先端の性能を提供します。NVIDIA Blackwell GPU アーキテクチャを採用した DGX B200 は、大規模言語モデル、レコメンダー システム、チャットボットなどの多様なワークロードを処理することができ、AI トランスフォーメーションの加速を目指す企業に最適です。

あらゆるワークロードのための AI インフラストラクチャ

DGX B200 を活用してデータの準備からトレーニング、推論に至るあらゆる AI ワークロードをどのように高速化するかをご覧ください。

企業のデプロイ成功事例

NVIDIA DGX™ プラットフォームNVIDIA NeMo™ がどのように業界をリードする企業に力を与えているかをご覧ください。

利点

統合 AI プラットフォーム

開発からデプロイまでのパイプラインのための 1 つのプラットフォーム

企業は、トレーニングからファインチューニングに推論まで、AI パイプラインのあらゆる段階で複雑な AI データセットを処理するために膨大な計算処理能力を必要とします。NVIDIA DGX B200 があれば、ワークフローを高速化するように作られた 1 つのプラットフォームを企業は開発者に与えることができます。

究極の AI パフォーマンス

NVIDIA Blackwell アーキテクチャの高度なコンピューティングを活用する DGX B200 は、DGX H100 と比較してそのトレーニング パフォーマンスが 3 倍、推論パフォーマンスが 25 倍となります。NVIDIA DGX BasePOD™NVIDIA DGX SuperPOD™ の土台である DGX B200 は、業界をリードするパフォーマンスをあらゆるワークロードに提供します。

実証済みのインフラストラクチャ標準

DGX B200 は、NVIDIA Base Command および NVIDIA AI Enterprise ソフトウェアを含む完全な NVIDIA AI ソフトウェア スタック、豊富なサードパーティ サポートのエコシステム、および NVIDIA プロフェッショナル サービスによる専門家のアドバイスへのアクセスを含む、完全に最適化されたハードウェアおよびソフトウェア プラットフォームです。

パフォーマンス

DGX B200 を活用した次世代のパフォーマンス

リアル タイム大規模言語モデル推論

予想されるパフォーマンスは変更される可能性があります。トークン間のレイテンシ (TTL) = 50ms リアルタイム、最初のトークンのレイテンシ (FTL) = 5ms、入力シーケンスの長さ = 32,768、出力シーケンスの長さ = 1,028、8x 8ウェイ HGX H100 GPU 空冷と 1x 8ウェイ DGX B200 空冷の比較、GPU あたりのパフォーマンス比較​。

大幅に強化された AI トレーニング性能

予想されるパフォーマンスは変更される可能性があります。32,768 GPU スケール、4,096x 8ウェイ DGX H100 空冷クラスター: 400G IB ネットワーク、4,096x 8ウェイ DGX B200 空冷クラスター: 400G IB ネットワーク。

仕様

NVIDIA DGX B200 の仕様

GPU 8 基 の NVIDIA B200 Tensor コア GPU
GPU メモリ 合計 1,440GB の GPU メモリ
パフォーマンス 72 petaFLOPS の FP8 トレーニングと 144 petaFLOPS の FP4 推論
消費電力 最大 14.3kW
CPU 2 個の Intel® Xeon® Platinum 8570 プロセッサ
合計 112 コア、2.1 GHz (ベース)、
4 GHz (最大ブースト)
システム メモリ 最大 4TB
ネットワーキング 4 基の OSFP ポートで 8 基のシングルポートを提供する NVIDIA ConnectX-7 VPI
  • 最大 400Gb/秒の InfiniBand/Ethernet
2 個のデュアルポート QSFP112 NVIDIA BlueField-3 DPU
  • 最大 400Gb/秒の InfiniBand/Ethernet
管理ネットワーク 10Gb/秒のオンボード NIC (RJ45 搭載)
100Gb/秒のデュアルポート イーサネット NIC
ホスト BMC (ベースボード管理コントローラー、RJ45 搭載)
ストレージ OS: 2 個の 1.9TB NVMe M.2
内部ストレージ: 8 個の 3.84TB NVMe U.2
ソフトウェア NVIDIA AI Enterprise: 最適化された AI ソフトウェア
NVIDIA Base Command™: オーケストレーション、スケジューリング、クラスター管理
DGX OS / Ubuntu: オペレーティング システム
ラック ユニット (RU) 10 RU
システム サイズ 高さ: 17.5in (444mm)
幅: 19.0in (482.2mm)
長さ: 35.3in (897.1mm)
運用温度 5–30°C (41–86°F)
企業向けサポート ハードウェアとソフトウェアの 3 年間のエンタープライズ Business-Standard サポート
年中無休のエンタープライズ サポート ポータル アクセス
現地営業時間中のライブ エージェント サポート

関連情報

あらゆる企業にスーパーコンピューティングを提供する

NVIDIA DGX SuperPOD

DGX B200 上に構築された NVIDIA DGX SuperPOD™ は、業界をリードする企業が NVIDIA の AI 専門知識に支えられた大規模なターンキー インフラストラクチャを導入できるようにします。

DGX プラットフォームの価値を最大化する

NVIDIA エンタープライズ サービスは、DGX インフラストラクチャ向けのサポート、教育、プロフェッショナル サービスを提供します。AI 導入のあらゆる段階で NVIDIA のエキスパートが支援するエンタープライズ サービスは、プロジェクトを短期間で成功に導きます。

DGX のお客様として特別なトレーニング オファーを受ける

NVIDIA Deep Learning Institute (DLI) の AI エキスパートから、AI による最先端のブレイクスルーを短期間に達成する方法と、 DGX のお客様に提供する特別なテクニカル トレーニングを学ぶ方法をご覧ください。

今すぐ始める

次のステップに進む

NVIDIA DGX プラットフォームを見る

DGX プラットフォームは、あらゆる AI 企業のニーズに対応するさまざまな製品とサービスで構成されています。

NVIDIA DGX プラットフォームの利点

NVIDIA DGX は、エンタープライズ AI を構築するための実績のある標準です。

適切な製品やパートナーの選択にお困りですか?

専門的なニーズについては、NVIDIA 製品スペシャリストにご相談ください。