世界のAIインフラストラクチャ向けの新しいエンジンである NVIDIA H100 GPU が 飛躍的なパフォーマンス向上を実現
カリフォルニア州サンタクララ—GTC— 2022 年 3 月 22 日—NVIDIA は本日、NVIDIA Hopper™ アーキテクチャを搭載した次世代のアクセラレーテッド コンピューティング プラットフォームを発表しました。Hopper は前世代のパフォーマンスからの飛躍的向上を実現し、AI データセンターの次の波を推進します。
米国の先駆的なコンピューター科学者である Grace Hopper (グレース ホッパー) にちなんで名付けられたこの新しいアーキテクチャは、2 年前に発表された NVIDIA Ampere アーキテクチャを継承しています。
NVIDIA は同時に、800 億のトランジスタを搭載した最初の Hopper ベースの GPU である NVIDIA H100 を発表しました。 世界最大かつ最も強力なアクセラレータである H100 は、革新的な Transformer Engine や巨大な AI 言語モデル、ディープ レコメンダー システム、ゲノミクス、複雑なデジタル ツインを進化させるための高い拡張性を備えた NVIDIA NVLink® 相互接続などの画期的な機能を備えています。
NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は次のように述べています。「データセンターは AI ファクトリーになりつつあり、膨大な量のデータを処理および改良してインテリジェンスを生成しています。NVIDIA H100 は、企業が AI ドリブンのビジネスを加速するために使用する世界の AI インフラストラクチャのエンジンです」
H100 のテクノロジ ブレイクスルー NVIDIA H100 GPU は、大規模な AI と HPC を加速する新しい標準を設定し、6 つの画期的なイノベーションを実現しています。
H100 の技術的革新は、NVIDIA の AI 推論とトレーニングにおけるリーダーシップを拡張し、巨大な AI モデルを使用したリアルタイムで没入型のアプリケーションが可能になります。 H100 は、世界で最も強力なモノリシック Transformer 言語モデルである Megatron 530B を使用したチャットボットを可能にし、リアルタイムの対話型 AI に求められる 1 秒未満の遅延を満たしながら、前世代の GPU の最大30 倍のスループットを実現します。 H100 により、研究者や開発者は、Mixture of Experts などの大規模なモデルを 3,950 億のパラメーターで最大 9 倍高速にトレーニングできるため、トレーニング時間が数週間から数日に短縮されます。
NVIDIA H100 の幅広い採用 NVIDIA H100 は、オンプレミス、クラウド、ハイブリッド クラウド、エッジなど、あらゆる種類のデータセンターに導入できます。今年後半には、世界をリードするクラウドサービス プロバイダーやコンピューター メーカー、および NVIDIA から直接入手できるようになる予定です。
NVIDIA の第 4 世代の DGX™ システムである DGX H100 は、8 基の H100 GPU を搭載し、新しい FP8 精度で 32 ペタフロップスの AI パフォーマンスを提供します。大規模言語モデル、レコメンダー システム、ヘルスケア研究、気候科学の大規模なコンピューティング要件を満たすスケールを実現します。
DGX H100 システムのすべての GPU は、前世代に比べ 1.5 倍となる 900GB/s の帯域幅を持つ第 4 世代の NVLink によって接続されます。また、 NVSwitch™ により、8 基の H100 GPU すべてが NVLink を介して接続されています。 外部 NVLink Switch により、次世代の NVIDIA DGX SuperPOD™ スーパーコンピューターでは最大 32 台の DGX H100 ノードがネットワーク接続されます。
Hopper は、業界の幅広い支持を受け、主要なクラウドサービス プロバイダーである Alibaba Cloud、Amazon Web Services、Baidu AI Cloud、Microsoft Azure、Oracle Cloud、TencentCloud などが H100 ベースのインスタンスを提供予定です。
また、世界をリードするシステム メーカーの Atos、BOXX Technologies、Cisco、Dell Technologies、富士通、GIGABYTE、H3C、Hewlett Packard Enteprise、Inspur、Lenovo、Nettrix、Supermicro から、H100 アクセラレータを搭載したさまざまなサーバーの提供が予定されています。
あらゆる規模の NVIDIA H100 H100 は SXM および PCIe のフォームファクタで提供され、幅広いサーバー設計要件をサポートします。 H100 GPU を NVIDIA ConnectX®-7 400Gb/s InfiniBand および Ethernet SmartNIC と組み合わせたコンバージド アクセラレータも利用可能になります。
NVIDIA の H100 SXM は、サーバー内および複数のサーバーにまたがる複数の GPU にアプリケーションを拡張する企業向けに、4 ウェイおよび 8 ウェイ構成の HGX™ H100 サーバー ボードで利用可能になります。 HGX H100 ベースのサーバーは、データ分析および HPC アプリケーションとともに、AI トレーニングおよび推論のための最高のアプリケーション パフォーマンスを提供します。
H100 PCIe は、PCIe 5.0 の 7 倍以上の帯域幅で 2 基の GPU を接続する NVLink を備え、主要なエンタープライズ サーバーで実行されるアプリケーションに卓越したパフォーマンスを提供します。 そのフォームファクタにより、既存のデータセンター インフラストラクチャへの統合が容易になります。
新しいコンバージド アクセラレータである H100 CNX は、H100 と ConnectX-7 SmartNIC を組み合わせ、企業のデータセンターでの、マルチノード AI トレーニングやエッジでの 5G 信号処理など、I/O 集約型のアプリケーションに画期的なパフォーマンスを提供します。
NVIDIA Hopper アーキテクチャ ベースの GPU は、PCIe 5.0 と比較して CPU と GPU 間の通信が 7 倍以上高速になる、超高速の NVLink-C2C 相互接続を備えた NVIDIA Grace™ CPU と組み合わせることも可能です。 この組み合わせ (Grace Hopper Superchip) は、巨大な規模の HPC および AI アプリケーションに対応するために設計された統合モジュールです。
NVIDIA ソフトウェア のサポート NVIDIA H100 GPU は、開発者や企業が AI から HPC までのアプリケーションを構築および高速化できるようにする強力なソフトウェア ツールによってサポートされています。 これには、音声、レコメンダー システム、ハイパースケール推論などのワークロード向けの NVIDIA AI ソフトウェア スイートの大幅なアップデートが含まれます。
NVIDIA はまた、量子コンピューティングや 6G 研究、サイバー セキュリティ、ゲノミクス、創薬のワークロードを加速するために、ライブラリ、ツール、テクノロジを含む CUDA-X™ コレクションに 60 を超えるアップデートをリリースしました。
提供予定 NVIDIA H100 は、第 3 四半期から提供開始を予定しています。
NVIDIA Hopper および H100 の詳細については、ジェンスン フアンの GTC 2022 基調講演のリプレイをご覧ください。 GTC 2022 に無料で登録し、NVIDIA および業界のリーダーによるセッションに参加してください。
NVIDIA について 1999 年における NVIDIA (NASDAQ表示: NVDA) による GPU の発明は、PC ゲーミング市場の成長に爆発的な拍車をかけ、現代のコンピューター グラフィックス、ハイパフォーマンス コンピューティング、そして人工知能 (AI) を再定義しました。NVIDIA のアクセラレーテッド コンピューティングと AI における先駆的な取り組みは、輸送、ヘルスケア、製造業などの数兆ドル規模の産業を再構築し、その他のさまざまな産業の拡大も加速させています。 詳細は、こちらのリンクから:https://nvidianews.nvidia.com/
NVIDIA Hopperアーキテクチャ、NVIDIA H100 GPU、およびDGX H100の利点、影響、仕様、パフォーマンス、および提供予定、 データセンターがAIファクトリーになること、 NVIDIA H100が世界のデータセンターに次のエンジンを提供し、企業がAIを使用してビジネスを変革できるようになること、 顧客がコンフィデンシャル コンピューティングを連合学習に適用できるようになること、NVIDIA H100があらゆるタイプのデータセンターに導入できるようになること、 NVIDIA H100のソフトウェア サポートなど、本プレスリリースにおける一定の記載は将来の見通しに関する記述であり、予測とは著しく異なる結果を生ずる可能性があるリスクと不確実性を伴っています。かかるリスクと不確実性は、世界的な経済環境、サードパーティに依存する製品の製造・組立・梱包・試験、技術開発および競合による影響、新しい製品やテクノロジの開発あるいは既存の製品やテクノロジの改良、NVIDIA製品やパートナー企業の製品の市場への浸透、デザイン・製造あるいはソフトウェアの欠陥、ユーザーの嗜好および需要の変化、業界標準やインターフェイスの変更、システム統合時にNVIDIA製品および技術の予期せぬパフォーマンスにより生じる損失などを含み、その他のリスクの詳細に関しては、Form 10-K でのNVIDIAのアニュアル レポートならびに Form 10-Q での四半期レポートなど、米証券取引委員会 (SEC) に提出されている NVIDIA の報告書に適宜記載されます。SEC への提出書類は写しが NVIDIA の Web サイトに掲載されており、NVIDIA から無償で入手することができます。これらの将来予測的な記述は発表日時点の見解に基づくものであって将来的な業績を保証するものではなく、法律による定めがある 場合を除き、今後発生する事態や環境の変化に応じてこれらの記述を更新する義務を NVIDIA は一切負いません。
© 2022 NVIDIA Corporation. All rights reserved. NVIDIA、NVIDIA ロゴ、ConnectX、CUDA-X、DGX、NVIDIA DGX SuperPOD、NVIDIA Grace、NVIDIA HGX、NVIDIA Hopper、NVLinkおよびNVSwitchは、米国およびその他の国々の NVIDIA Corporation (エヌビディア コーポレーション) かつ/あるいはMellanox Technologiesの商標かつ/あるいは登録商標です。その他の会社名、機関名や製品名についても、それらに関連付けられる各機関の商標である可能性があります。製品の特徴、価格、利用の可否および仕様は、予告なしに変更されることがあります。