Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
生成 AI の新時代にパワーを与えます。
GGB 200 NVL 72 は、36 基の Grace CPU と、72 基の Blackwell GPU をラックスケールの液冷設計で接続します。72-GPU の NVLink ドメインは、単一の巨大 GPU として機能し、30 倍の高速リアルタイムな兆単位パラメータの大規模言語モデル(LLM)推論を実現します。
GB200 Grace Blackwell Superchip は、NVIDIA GB200 NVL72 の主要コンポーネントであり、2 つの高性能 NVIDIA Blackwell Tensor コア GPU と NVIDIA Grace™ CPU を、 NVIDIA NVLink™-C2C 相互接続を使用して 2 つの Blackwell GPU に接続しています。
NVIDIA GB200 NVL72 は 1 つのラックに収められたエクサスケール コンピューターです。史上最大の NVIDIA® NVLink® ドメインで 36 個の GB200 が相互接続される NVLink Switch System は、AI ワークロードと HPC (ハイパフォーマンス コンピューティング) ワークロードで毎秒 130 テラバイトの低遅延 GPU 通信を提供します。
ハイライト
30 倍 vs. NVIDIA H100 Tensor コア GPU
4 倍 vs. H100
25 倍 vs. H100
18 倍 vs. CPU
LLM 推論とエネルギー効率: TTL = 50ミリ秒 (ms)、FTL = 5s、32,768 入力/1,024 出力、NVIDIA HGX™ H100 を InfiniBand (IB) でスケール vs. GB200 NVL72、トレーニング 1.8T MOE 4096x HGX H100 でスケール IB vs. 456x GB200 NVL72 でスケール IB。クラスター サイズ: 32,768 TPC-H Q4 クエリから派生した Snappy/Deflate 圧縮によるデータベースの結合と集約のワークロード。x86、H100 シングル GPU、および GB200 NLV72 vs. Intel Xeon 8480+ のシングル GPU のカスタム クエリ実装 予想されるパフォーマンスは変更される可能性があります。
GB200 NVL72 は、FP4 AI を可能にする最先端の機能と第2世代の Transformer エンジンを導入しています。第5世代の NVIDIA NVLink と組み合わせることで、兆単位パラメータ言語モデルにおいて 30 倍高速なリアルタイム LLM 推論性能を発揮します。この進歩は、新しいマイクロスケーリング フォーマットを導入し、高精度とスループットの向上を提供する新世代の Tensor コアによって実現可能になりました。さらに、GB200 NVL72 は、NVLink と液冷を使用し、通信のボトルネックを克服できる1つの巨大な 72 GPU ラックを作成します。
GB200 NVL72 には、FP8 精度を特徴とするより高速な第2世代のトランスフォーマー エンジンが搭載されており、大規模言語モデルでの学習を 4 倍高速化することができます。このブレークスルーは、1.8 TB/秒の GPU 間相互接続、InfiniBand ネットワーク、NVIDIA Magnum IO™ ソフトウェアを提供する第5世代の NV Link によって支えられています。
液冷 GB200 NVL72 ラックは、データ センターの二酸化炭素排出量とエネルギー消費を削減します。液冷により計算密度が向上し、使用する床面積は削減され、大規模な NVLink ドメイン アーキテクチャによる高帯域幅、低遅延の GPU 通信が可能になります。NVIDIA H100 空冷インフラと比較して、GB200 は同じ電力で 25 倍の性能を発揮し、水の消費量を削減します。
データベースは、企業の大量のデータの操作、加工、分析において重要な役割を果たします。GB200 は、高帯域幅メモリ性能の NVLink-C2C と NVIDIA Blackwell アーキテクチャの専用 Decompression Engine を活用し、CPU と比較して重要なデータベース クエリを 18 倍高速化し、TCO を 5 倍にします。
特長
NVIDIA Blackwell アーキテクチャは、アクセラレーテッド コンピューティングに画期的な進歩をもたらし、比類のないパフォーマンス、効率性、スケールでコンピューティングの新時代を強化します。
NVIDIA Grace CPU は、AI、クラウド、ハイパフォーマンス コンピューティング (HPC) アプリケーションを実行する最新のデータ センター向けに設計された画期的なプロセッサです。現代の主要なサーバー プロセッサと比べて電力効率が 2 倍となり、パフォーマンスとメモリ帯域幅に優れています。
エクサケール コンピューティングと 1 兆パラメータ AI モデルの可能性を最大限に引き出すためには、サーバー クラスター内のすべての GPU 間における迅速かつスムーズな通信が不可欠です。第5世代の NVLink は、兆単位パラメータ AI モデル向けに加速されたパフォーマンスを発揮するスケールアップ型相互接続です。
データ センターのネットワークは、AI の進歩とパフォーマンスを推進するうえで重要な役割を果たし、分散 AI モデルのトレーニングと生成 AI のパフォーマンスを支えるバックボーンとして機能します。NVIDIA Quantum-X800 InfiniBand、NVIDIA Spectrum™-X 800 Ethernet、および NVIDIA® BlueField®-3 DPU は、数百から数千の Blackwell GPU におよぶ効率的な拡張性を実現し、最適なアプリケーション性能を実現します。
NVIDIA GB300 NVL 72 は、Hopper プラットフォームの 40 倍の AI 推論性能、40 TB の高速メモリおよび Quantum-X800 InfiniBand または Spectrum™-X Ethernet を使用する NVIDIA ConnectX®-8 とのネットワーキング プラットフォーム統合を特徴としています。 Blackwell Ultra は、エージェント システム、AI 推論からリアルタイム ビデオ生成まで、最も複雑なワークロードで画期的なパフォーマンスを発揮します。
仕様
1. 疎性あり。
今すぐ始める
登録すると、NVIDIA Blackwell の販売開始時にお知らせいたします。