NVIDIA、世界をリードする AI コンピューティング プラットフォームHopper を強化

HGX H200 システムとクラウド インスタンスが世界トップのサーバー メーカーおよびクラウド サービス プロバイダーから間もなく登場

デンバー—SC23—2023 年11 月13 日 — NVIDIA は本日、NVIDIA HGX™ H200 の導入により、世界をリードする AI コンピューティング プラットフォームを強化したことを発表しました。NVIDIA Hopper™ アーキテクチャに基づくこのプラットフォームは、生成 AI およびハイ パフォーマンス コンピューティング ワークロード向けに、大量のデータを処理するための先進のメモリを備えた、NVIDIA H200 Tensor コア GPU を搭載しています。

NVIDIA H200 は、HBM3e を提供する最初の GPU です。HBM3e は、より高速で大容量のメモリであり、HPC ワークロード向けの科学コンピューティングを進歩させながら、生成 AI と大規模言語モデルの高速化を促進します。HBM3e を搭載した NVIDIA H200 は、毎秒 4.8 テラバイトで 141 GB のメモリを提供します。これは、前世代の NVIDIA A100 に比べてほぼ 2 倍の容量と、2.4 倍増加した帯域幅を実現しています。

H200 搭載システムは、世界の主要なサーバー メーカーやクラウド サービス プロバイダーから 2024 年の第 2 四半期に出荷が開始される予定です。

NVIDIA のハイパースケールおよび HPC 担当 バイス プレジデントのイアン バック (Ian Buck) は次のように述べています。「生成 AI および HPC アプリケーションでインテリジェンスを作成するには、大容量で高速な GPU メモリを使用して、膨大な量のデータを高速で効率的に処理する必要があります。NVIDIA H200 により、業界をリードするエンドツーエンドの AI スーパーコンピューティング プラットフォームがより高速になり、世界で最も重要な課題のいくつかを解決するでしょう」

永続的なイノベーション、永続的なパフォーマンスの飛躍
NVIDIA Hopper アーキテクチャは、前世代と比較して前例のないパフォーマンスの飛躍的な向上を実現し、NVIDIA TensorRT™-LLM などの強力なオープンソース ライブラリの最近のリリースを含む、H100 による継続的なソフトウェア機能強化を通じて基準を引き上げ続けます。

H200 の導入により、700 億パラメータの LLM である Llama 2 の推論速度では、H100 と比較してほぼ 2 倍になるなど、パフォーマンスはさらに飛躍的に向上します。将来のソフトウェア アップデートにより、H200 を使用したパフォーマンスの優位性のさらなる向上と改善が期待されます。

NVIDIA H200 のフォームファクター
NVIDIA H200 は、4 ウェイ構成および 8 ウェイ構成の NVIDIA HGX H200 サーバー ボードで提供されます。これらは、HGX H100 システムのハードウェアとソフトウェアの両方と互換性があります。8 月に発表された、HBM3e 搭載の NVIDIA GH200 Grace Hopper™ Superchip としても利用可能です。

これらのオプションを使用して、H200 をオンプレミス、クラウド、ハイブリッド クラウド、エッジなど、あらゆるタイプのデータセンターに導入できます。ASRock Rack、ASUS、Dell Technologies、Eviden、GIGABYTE、Hewlett Packard Enterprise、Lenovo、QCT、Supermicro、Wistron、Wiwynn を含むパートナー サーバー メーカーの NVIDIA のグローバル エコシステムは、既存のシステムを H200 で更新することができます。

CoreWeave、Lambda、Vultr に加えて、Amazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure も、来年から H200 ベースのインスタンスを導入する最初のクラウド サービス プロバイダーとなります。

NVIDIA NVLink™ および NVSwitch™ 高速インターコネクトを搭載した HGX H200 は、1,750 億パラメータを超える最大モデルの LLM のトレーニングや推論など、さまざまなアプリケーション ワークロードで最高のパフォーマンスを提供します。

8 ウェイ HGX H200 は、32 ペタフロップスを超える FP8 ディープラーニング コンピューティングと、合計 1.1 TB の高帯域幅メモリを提供し、生成 AI および HPC アプリケーションに最高のパフォーマンスを提供します。

超高速な NVLink-C2C インターコネクトを備えた NVIDIA Grace™ CPU と組み合わせると、H200 は、HBM3e 搭載の GH200 Grace Hopper Superchip となり、巨大スケールの HPC および AI アプリケーションに対応するように設計された統合モジュールとなります。

NVIDIA フルスタック ソフトウェアで AI を加速
NVIDIA のアクセラレーテッド コンピューティング プラットフォームは、開発者や企業が AI から HPC まで本稼働対応のアプリケーションを構築および高速化できる強力なソフトウェア ツールによってサポートされています。これには、音声、レコメンダー システム、ハイパースケール推論などのワークロード向けの NVIDIA AI Enterprise ソフトウェア スイートが含まれます。

提供時期
NVIDIA H200 は、2024 年の第 2 四半期から世界のシステム メーカーおよびクラウド サービス プロバイダーから入手可能になります。

NVIDIA H200 Tensor コア GPU の詳細については、11 月 13 日午前 6 時 (太平洋標準時) に行われるイアン バックの SC23 特別講演をご覧ください。

NVIDIA について
1993年の創業以来、NVIDIA(https://www.nvidia.com/ja-jp/) (NASDAQ: NVDA) はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、各種産業のデジタル化を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細は、こちらのリンクから:https://nvidianews.nvidia.com/

本プレスリリースに含まれる特定の記述には、以下のような記述が含まれますが、これらに限定されるものではありません:NVIDIA HGX H200 および NVIDIA Hopper アーキテクチャのパフォーマンス、仕様、影響、および可用性、さらに生成 AI および HPC アプリケーションでインテリジェンスを作成するための処理要件に関し、パートナー サーバー メーカーが H100 ベースのシステムを H200 でアップデートすることの容易さ、およびH200 ベースのインスタンスを展開すると予想される最初のクラウド サービス プロバイダーに関する記述など、本プレスリリースにおける一定の記載は、将来予測的なものが含まれており、予測とは著しく異なる結果を生ずる可能性があるリスクと不確実性を伴っています。かかるリスクと不確実性は、世界的な経済環境、サードパーティに依存する製品の製造、組立、梱包、試験、技術開発および競合による影響、新しい製品やテクノロジの開発あるいは既存の製品やテクノロジの改良、NVIDIA 製品や協業企業の製品の市場への浸透、デザイン、製造あるいはソフトウェアの欠陥、ユーザーの嗜好および需要の変化、業界標準やインターフェイスの変更、システム統合時に NVIDIA 製品および技術の予期せぬパフォーマンスにより生じる損失などを含み、その他のリスクの詳細に関しては、Form 10-K での NVIDIA のアニュアル レポートならびに Form 10-Q での四半期レポートなど、米証券取引委員会 (SEC) に提出されている NVIDIA の報告書に適宜記載されます。SEC への提出書類は写しが NVIDIA の Web サイトに掲載されており、NVIDIA から無償で入手することができます。これらの将来予測的な記述は発表日時点の見解に基づくものであって将来的な業績を保証するものではなく、法律による定めがある 場合を除き、今後発生する事態や環境の変化に応じてこれらの記述を更新する義務を NVIDIA は一切負いません。

© 2023 NVIDIA Corporation.無断複写、転載を禁じます。NVIDIA、NVIDIA ロゴ、NVIDIA HGX、TensorRT-LLM、NVLink、NVSwitch、NVIDIA Grace およびNVIDIA Grace Hopper は、米国およびその他の国における NVIDIA Corporation の商標および/または登録商標です。その他の会社名および製品名は、関連する各社の商標である場合があります。機能、価格、可用性および仕様は予告なく変更されることがあります。