NVIDIA、数兆パラメータ規模の生成 AI スーパーコンピューティング向け Blackwell 搭載 DGX SuperPOD を発表

  • 最先端の NVIDIA ネットワーク、NVIDIA フルスタック AI ソフトウェア、ストレージを使用して、数万基の Grace Blackwell Superchipまで拡張可能
  • NVIDIA NVLink で最大 576 基の Blackwell GPU を 1 つとして接続できる機能
  • NVIDIA システムの専門家が即時 AI インフラストラクチャの導入を迅速に実現

カリフォルニア州サンノゼ – GTC – 2024 年 3 月 18 日 – NVIDIA は本日、超大規模な生成 AI トレーニングおよび推論ワークロード向けに一定したアップタイムで数兆パラメータ モデルを処理する、次世代 AI スーパーコンピューター、NVIDIA GB200 Grace Blackwell Superchip 搭載 NVIDIA DGX SuperPOD™ を発表しました。

新たに高効率な液冷ラックスケール アーキテクチャを特徴とする新しい DGX SuperPOD は、NVIDIA DGX™ GB200 システムで構築され、FP4 精度で 11.5 エクサフロップスの AI スーパーコンピューティングと 240 テラバイトの高速メモリを提供し、ラックを追加することでさらに拡張できます。

各 DGX GB200 システムは、36 基の NVIDIA Grace CPU と 72 基の NVIDIA Blackwell GPU を含む 36 基の NVIDIA GB200 Superchip を備えており、第 5 世代の  NVIDIA NVLink® を介して 1 つのスーパーコンピューターとして接続されています。GB200 Superchip は、大規模言語モデルの推論ワークロードにおいて、NVIDIA H100 Tensor コア GPU と比較して最大 30 倍のパフォーマンス向上を実現します。

NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は次のように述べています。「NVIDIA DGX AI スーパーコンピューターは、AI 産業革命の工場です。新しい DGX SuperPOD は、NVIDIA アクセラレーテッド コンピューティング、ネットワーキング、ソフトウェアの最新の進歩を組み合わせて、あらゆる企業、業界、国が独自の AI を改良し、生成できるようにします」

Grace Blackwell 搭載のDGX SuperPOD は 8 台以上の DGX GB200 システムを備えており、NVIDIA Quantum InfiniBand 経由で接続することで、数万の GB200 Superchip まで拡張できます。次世代の AI モデルを強化するための大規模な共有メモリ空間を実現するために、顧客は NVLink で接続された 8 台の DGX GB200 システム内の 576 基の Blackwell GPU を接続する構成を展開可能です。

生成 AI 時代に向けた新しいラックスケール DGX SuperPOD アーキテクチャ
DGX GB200 システムを備えた新しい DGX SuperPOD は、統合されたコンピューティング ファブリックを備えています。 このファブリックには、第 5 世代 NVIDIA NVLink に加えて、NVIDIA BlueField®-3 DPU が含まれており、本日別途発表された NVIDIA Quantum-X800 InfiniBand ネットワーキングをサポートします。第5世代のNVIDIA NVLinkに加え、このファブリックにはNVIDIA BlueField®-3 DPUが含まれ、NVIDIA Quantum-X800 InfiniBandネットワーキングをサポートします、このアーキテクチャは、プラットフォーム内の各 GPU に最大 1,800 ギガバイト/秒の帯域幅を提供します。

さらに、第 4 世代の NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ テクノロジは、14.4 テラフロップスのIn-Networkコンピューティングを提供します。これは、前世代と比較して、次世代 DGX SuperPOD アーキテクチャでは 4 倍向上しています。

ターンキー アーキテクチャと高度なソフトウェアの組み合わせにより前例のないアップタイムを実現
新しい DGX SuperPOD は、生成 AI ワークロードの要求を満たすために、NVIDIA 認定パートナーの高性能ストレージと統合された完全なデータセンター規模の AI スーパーコンピューターです。 それぞれが工場で構築、ケーブル接続、テストされるため、顧客のデータセンターでの展開が大幅に高速化されます。

Grace Blackwell 搭載のDGX SuperPODは、インテリジェントな予測管理機能を備えており、ハードウェアとソフトウェア全体で何千ものデータ ポイントを継続的に監視し、ダウンタイムと非効率の原因を予測して遮断し、時間、エネルギー、コンピューティング コストを節約します。

このソフトウェアは、システム管理者がいない場合でも、懸念領域を特定してメンテナンスを計画し、コンピューティング リソースを柔軟に調整し、ダウンタイムを防ぐためにジョブを自動的に保存して再開することができます。

ソフトウェアがコンポーネントの交換が必要であることを検出すると、クラスタはスタンバイ キャパシティをアクティブにして、作業が時間内に完了するようにします。計画外のダウンタイムを回避するために、必要なハードウェア交換をスケジュールできます。

NVIDIA DGX B200 システムが産業向けAI スーパーコンピューティングを推進
NVIDIA は、AI モデルのトレーニング、ファインチューニング、推論のための統合 AI スーパーコンピューティング プラットフォームである NVIDIA DGX B200 システムも発表しました。

DGX B200 は、世界中の企業で使用されている空冷式の従来のラックマウント型 DGX 設計の第 6 世代です。新しい Blackwell アーキテクチャ DGX B200 システムには、8 基の NVIDIA B200 Tensor コア GPU と 2 基の第 5 世代インテル® Xeon® プロセッサが含まれています。顧客はまた、DGX B200 システムを使用して DGX SuperPOD を構築し、さまざまなジョブを実行する大規模な開発者チームの作業を強化できる AI Center of Excellence を造ることも可能です。

DGX B200 システムには、新しい Blackwell アーキテクチャに FP4 精度機能が組み込まれており、最大 144 ペタフロップスの AI パフォーマンス、1.4 TB の大容量 GPU メモリ、および 64TB/秒のメモリ帯域幅を提供します。これにより、1兆パラメータ モデルのリアルタイム推論が前世代に比べて 15 倍高速化されます。

DGX B200 システムには、8 基の NVIDIA ConnectX™-7 NIC と 2 基の BlueField-3 DPU を備えた高度なネットワークが含まれています。 これらは、接続ごとに最大 400 ギガビット/秒の帯域幅を提供し、NVIDIA Quantum-2 InfiniBand および NVIDIA Spectrum™-X Ethernet™ ネットワーキング プラットフォームで高速 AI パフォーマンスを実現します。

プロダクション AI を拡張するためのソフトウェアと専門家のサポート
すべての NVIDIA DGX プラットフォームには、エンタープライズ グレードの開発と展開のための NVIDIA AI Enterprise ソフトウェアが含まれています。DGX の顧客は、ソフトウェア プラットフォームに含まれる事前トレーニング済みの NVIDIA 基盤モデル、フレームワーク、ツールキット、および新しい NVIDIA NIM マイクロサービスを使用して作業を加速できます。

NVIDIA DGX エキスパートと、厳選された DGX プラットフォームのサポートを認定されたNVIDIA パートナーが、展開のあらゆる段階を通じて顧客を支援し、AI を迅速に実稼働環境に移行できるようにします。システムが稼働し次第、DGX のエキスパートが引き続き顧客の AI パイプラインとインフラストラクチャの最適化をサポートします。

提供時期
DGX GB200 および DGX B200 システムを搭載した NVIDIA DGX SuperPOD は、今年後半に NVIDIA のグローバル パートナーから発売される予定です。

詳細については、GTC 基調講演のアーカイブ視聴をご覧いただくか、サンノゼ コンベンション センターで 3 月 21 日まで開催される GTC の NVIDIA ブースにご参加ください。

NVIDIA について
1993年の創業以来、NVIDIA(https://www.nvidia.com/ja-jp/) (NASDAQ: NVDA) はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、産業用メタバースの創造を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細は、こちらのリンクから:https://nvidianews.nvidia.com/

本プレス リリースの特定の記述には、NVIDIA DGX SuperPOD、NVIDIA GB200 Grace Blackwell Superchip、NVIDIA DGX GB200 システム、NVIDIA GB200 Superchip、NVIDIA Grace CPU、NVIDIA Blackwell GPU、NVIDIA NVLink、NVIDIA H100 Tensor コア GPU、NVIDIA BlueField-3 DPU、NVIDIA Quantum-X800 InfiniBand ネットワーキング、NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP) テクノロジ、NVIDIA DGX B200 システム、NVIDIA B200 Tensor コア GPU、NVIDIA ConnectX-7 NIC、NVIDIA Quantum-2 InfiniBand 、NVIDIA Spectrum-X イーサネット、NVIDIA AI Enterprise ソフトウェア、NVIDIA NIMに関する記述が含まれますが、これらに限定されません。新しい DGX SuperPOD により、あらゆる企業、業界、国が独自の AI を洗練し、生成できるようになります。 NVIDIAの製品、プラットフォーム、テクノロジの使用または採用、その利点と影響は、将来の見通しに関する記述であり、予想と大きく異なる結果を引き起こす可能性のあるリスクと不確実性の影響を受けます。 実際の結果が大きく異なる可能性がある重要な要因には、以下が含まれます。 製品の製造、組み立て、梱包、テストを第三者に依存すること。 技術開発と競争の影響。 新しい製品や技術の開発、または既存の製品や技術の機能強化。 当社の製品または当社のパートナーの製品が市場に受け入れられること。 設計、製造、またはソフトウェアの欠陥。 消費者の好みや需要の変化。 業界標準とインターフェースの変化。 システムに統合すると、当社の製品またはテクノロジのパフォーマンスが予期せず失われる。 また、NVIDIA が証券取引委員会 (SEC) に提出する最新の報告書 (Form 10-K の年次報告書や Form 10-Q の四半期報告書など) に随時詳述されるその他の要素も含まれます。 。 SEC に提出された報告書のコピーは、同社の Web サイトに掲載されており、NVIDIA から無料で入手できます。 これらの将来予想に関する記述は、将来の業績を保証するものではなく、本書の日付時点でのみ述べられており、法律で義務付けられている場合を除き、NVIDIA は、将来の出来事や状況を反映するためにこれらの将来予想に関する記述を更新する義務を負いません。

ここで説明されている製品と機能の多くはさまざまな段階にあり、利用可能になったときに提供される予定です。 上記の記述は、約束、または法的義務を意図したものではなく、またそのように解釈されるべきではありません。NVIDIAの製品について説明されている機能の開発、リリース、およびタイミングは変更される可能性があり、そのように解釈されるべきではありません。 NVIDIA の裁量。 NVIDIA は、ここに記載されている製品、機能、または機能の納品の不履行または納品の遅延については責任を負いません。

© 2024 NVIDIA Corporation. 断複写・転載を禁じます。NVIDIA, the NVIDIA ロゴ、BlueField、ConnectX, DGX, NVIDIA DGX SuperPOD、NVIDIA Spectrum、NVLink、Scalable Hierarchical Aggregation and Reduction Protocol (SHARP) は、米国およびその他の国々の NVIDIA の商標および/または登録商標です。その他の会社名や製品名についても、それらに関連付けられる各会社の商標である可能性があります。製品の特徴、価格、発売・販売および仕様は、予告なしに変更されることがあります。