Dell Technologies、HPE、Lenovo、Supermicro など世界の大手コンピューター メーカーや、AWS、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure などのクラウド サービス プロバイダーが H100 ベースの製品を構築、来月以降入手可能に
2022 年 9 月 20 日、カリフォルニア州サンタクララ — GTC— NVIDIA は本日、NVIDIA H100 Tensor コア GPU の量産が開始しており、世界中のテクノロジ パートナーが 10 月に、画期的な NVIDIA Hopper™ アーキテクチャをベースとした製品およびサービスの第 1 弾を市場投入する予定であることを発表しました。
4 月に発表された H100 は、800 億のトランジスタを搭載し、さまざまな画期的テクノロジが導入されています。これらテクノロジの中には、パワフルな新しい Transformer Engine と NVIDIA NVLink® インターコネクトが含まれており、先進のレコメンダー システムや大規模言語モデルといった最大規模の AI モデルを加速し、対話型 AI や創薬といった分野でイノベーションを主導します。
NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は、次のように述べています。「Hopper は AI ファクトリーの新たなるエンジンです。膨大なデータを処理および洗練し、言語ベースの AI、ロボティクス、ヘルスケアおよびライフサイエンスの発展に不可欠な、数兆のパラメータを備えたモデルのトレーニングを可能にします。Hopper の Transformer Engine は性能を桁違いのレベルにまで引き上げ、企業や研究者が大規模な AI および HPC を利用できるようにします」
Hopper のアーキテクチャおよび Transformer Engine 以外にも、H100 GPU には重要なイノベーションが複数実装されています。第 2 世代 Multi-Instance GPU、コンフィデンシャル コンピューティング、第 4 世代 NVIDIA NVLink および DPX 命令などを含むイノベーションが、NVIDIA のアクセラレーテッド コンピューティング データセンター プラットフォームのさらなる大きな飛躍を実現します。
メインストリーム サーバー用の H100 には、NVIDIA AI Enterprise ソフトウェア スイートの 5 年間ライセンスが含まれることになります。これにより、AI ワークフローの開発および展開が最適化され、組織は、AI チャットボット、レコメンダー エンジン、ビジョン AI などの構築に必要な AI のフレームワークやツールを利用できるようになります。
Hopper のグローバル展開 H100 により、企業は AI 導入のコストを削減し、同じ AI 性能を 3.5 倍のエネルギー効率で提供し、総費用を 3 分の 1 に削減できるようになるほか、前世代に比べてサーバー ノードを 5 分の 1 に削減することも可能となります。
この新しいテクノロジをすぐに試したいお客様のために、NVIDIA は無料のハンズオン ラボを提供する NVIDIA LaunchPad 上で、H100 を搭載した Dell PowerEdge サーバーを提供し、企業が最新のハードウェアと NVIDIA AI ソフトウェアにアクセスできるようにしたことを発表しました。
また、お客様は、8 基の H100 GPU を搭載し、FP8 精度で 32 PFLOPSの性能を実現する NVIDIA DGX™ H100 システムを注文することもできます。すべての DGX システムでは、NVIDIA Base Command™ と NVIDIA AI Enterprise ソフトウェアを活用することができ、単一のノードから、大規模言語モデルや他の膨大なワークロードを対象とした先進的な AI 開発を可能にする NVIDIA DGX SuperPOD™ へと展開させることができます。
H100 を搭載したシステムは世界の主要なコンピューター メーカーより、今後数週間のうちに出荷され、年末までには 50 種類以上のサーバー モデル、2023 年の前半にはさらに数十種類のサーバー モデルが市場に導入される予定です。システムを構築するパートナーには、Atos、Cisco、Dell Technologies、富士通、GIGABYTE、Hewlett Packard Enterprise、Lenovo、そして Supermicro が含まれます。
さらに、世界有数の高等教育機関や研究機関が、次世代スーパーコンピューターに H100 を導入予定です。これらの機関には、バルセロナ スーパーコンピューティング センター、ロス アラモス国立研究所、スイス国立スーパーコンピューティング センター (CSCS)、テキサス アドバンスド コンピューティング センターおよび筑波大学が含まれます。
H100 がクラウドに登場 また、来年より、他のサービス プロバイダーに先駆けて、Amazon Web Services、Google Cloud、Microsoft Azure および Oracle Cloud Infrastructure が、クラウドで H100 のベースのインスタンスを展開する予定です。
Azure AI Infrastructure のジェネラル マネージャーであるニディ シャペル (Nidhi Chappell) 氏は、次のように話しています。「Microsoft Azure 上の最新の H100 GPU で次世代の AI モデルが構築されることを楽しみにしています。Hopper アーキテクチャの進化と Azure AI スーパーコンピューティングへの投資によって、世界中の AI の開発を加速させることができるでしょう。」
Oracle Cloud Infrastructure (OCI) の製品管理担当バイス プレジデントである カラン バッタ (Karan Batta) 氏は、次のように話しています。「当社は、NVIDIA の最新の H100 GPU をお客様に提供し、お客様がもっとも要件の厳しい機械学習や HPC ワークロードを加速できるよう支援しています。また、NVIDIA の次世代の H100 GPU により、当社では、要求の多い社内のワークロードにも対応できるようになります。ヘルスケア、自動運転車、ロボティクスおよび IoT といった分野でのブレイクスルーにより、共通のお客様を支援できるようになります。」
NVIDIA によるソフトウェアのサポート H100 の先進の Transformer Engine テクノロジにより、組織は大規模な言語モデルを高精度で、迅速に開発できるようになります。このようなモデルは規模を拡大しながら成長を続けると同時に、複雑さも増すため、数か月もかけてトレーニングを行う必要が生じる場合があります。
この課題に対処するために、NVIDIA NeMo Megatron、Microsoft DeepSpeed、Google JAX、PyTorch, TensorFlow および XLA といった、世界の主要な大規模言語モデルおよびディープラーニングのフレームワークには、H100 への最適化が行われています。これらのフレームワークを Hopper アーキテクチャと組み合わせることにより、AI 性能が飛躍的に向上し、数日または数時間で大規模言語モデルのトレーニングが可能になるでしょう。
NVIDIA Hopper および H100 についての詳細を知るためは、ジェンスン フアンによる GTC 2022 の基調講演のリプレイをご視聴ください。GTC への無料登録により、NVIDIA および業界リーダーたちのセッションに参加することができます。
NVIDIA について 1993 年の創業以来、NVIDIA (NASDAQ: NVDA) は、アクセラレーテッド コンピューティングのパイオニアとして活動してきました。1999年の GPU の発明は、PC ゲーミング市場の成長に拍車をかけ、コンピュータ グラフィックスを再定義し、現在の AI 時代の火付け役となりました。NVIDIA は現在、データセンター規模の製品を提供するフルスタック コンピューティング企業であり、産業のあり方を大きく変えています。詳細は、こちらのリンクから:https://nvidianews.nvidia.com/
NVIDIA H100 Tensor コア GPU、NVIDIA Hopper アーキテクチャ、NVIDIA AI Enterprise ソフトウェア スイート、NVIDIA LaunchPad、NVIDIA DGX H100 システム、NVIDIA Base Command、NVIDIA DGX SuperPOD、およびNVIDIA-Certified Systemsなど NVIDIA の製品およびテクノロジの利点、影響、使用、性能、特徴および入手可能性、世界の主要なコンピューター メーカー、クラウドサービス プロバイダー、世界有数の高等教育機関や研究機関、および大規模言語モデルやディープラーニング フレームワークが H100 GPU を採用したこと、NVIDIA H100 に対応したソフトウェア、大規模言語モデルの規模が拡大し続けること、および、NVDIA Hopper アーキテクチャと組み合わせた大規模言語モデルやディープラーニング フレームワークの性能などに関する記述を含め (ただし、これらに限定されません)、本プレスリリースに記載されている記述の中には、将来予測的なものが含まれており、予測とは著しく異なる結果を生ずる可能性があるリスクと不確実性を伴っています。かかるリスクと不確実性は、世界的な経済環境、サードパーティに依存する製品の製造・組立・梱包・試験、技術開発および競合による影響、新しい製品やテクノロジの開発あるいは既存の製品やテクノロジの改良、NVIDIA 製品やパートナー企業の製品の市場への浸透、デザイン・製造あるいはソフトウェアの欠陥、ユーザーの嗜好および需要の変化、業界標準やインターフェイスの変更、システム統合時に NVIDIA 製品および技術の予期せぬパフォーマンスにより生じる損失などを含み、その他のリスクの詳細に関しては、Form 10-K での NVIDIA のアニュアル レポートならびに Form 10-Q での四半期レポートなど、米証券取引委員会 (SEC) に提出されている NVIDIA の報告書に適宜記載されます。SEC への提出書類は写しが NVIDIA の Web サイトに掲載されており、NVIDIA から無償で入手することができます。これらの将来予測的な記述は発表日時点の見解に基づくものであって将来的な業績を保証するものではなく、法律による定めがある場合を除き、今後発生する事態や環境の変化に応じてこれらの記述を更新する義務を NVIDIA は一切負いません。
© 2022 NVIDIA Corporation. All rights reserved. NVIDIA、NVIDIA ロゴ、DGX、NVIDIA Base Command、NVIDIA-Certified Systems、NVIDIA DGX SuperPOD、NVIDIA Hopper、および NVLink は、米国およびその他の国々の NVIDIA Corporation (エヌビディア コーポレーション) の商標かつ/あるいは登録商標です。その他の会社名や製品名についても、それらに関連付けられる各会社の商標である可能性があります。製品の特徴、価格、発売予定および仕様は、予告なしに変更されることがあります。