新しい NVIDIA A100 GPU により AI の学習と推論が最大 20 倍高速化、NVIDIA 初のエラスティックなマルチインスタンス GPU がデータ アナリティクス、学習および推論を一元処理、世界の主要クラウド プロバイダーやサーバー メーカーが採用
2020 年 5 月 14 日、カリフォルニア州サンタクララ - GTC 2020 - NVIDIA は本日、NVIDIA® Ampere アーキテクチャをベースとした初の GPU である NVIDIA A100 の生産が本格化され、全世界のお客様に出荷中であることを発表しました。
A100 は NVIDIA Ampere アーキテクチャの画期的なデザインを採用しており、NVIDIA の全 8 世代の GPU のなかで最大の性能向上を遂げています。A100 は AI の学習と推論を一元処理し、前世代に比べて最大 20 倍の性能向上を実現しています。汎用的なワークロード アクセラレーターである A100 は、データ アナリティクスやサイエンティフィック コンピューティング、クラウド グラフィックスといった用途も想定して作られています。
NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は、次のように述べています。「クラウドコンピューティングと AI の強力なトレンドは、データセンターの設計に構造的な転換をもたらしています。かつては CPU のみのサーバーで溢れていたものが、今では GPU アクセラレーテッド コンピューティングになっています。NVIDIA A100 GPUは AI 性能を 20 倍に飛躍させ、データアナリティクスから学習、推論まで、エンドツーエンドの機械学習を加速します。NVIDIA A100 はスループットを向上し、同時にデータセンターの費用削減を実現します。」
A100 に組み込まれている新しいエラスティック コンピューティング テクノロジにより、あらゆる処理に適切な規模の演算能力を提供できるようになります。マルチインスタンス GPU 機能により、各 A100 GPU を最大 7 つの独立したインスタンスに分割して推論タスクを処理できるようになり、さらに第 3 世代 NVIDIA NVLink® インターコネクト テクノロジにより、複数の A100 GPU を単一の巨大な GPU として動作させることで、これまで以上に大規模な学習タスクに対応できるようにもなります。
世界の主要クラウド プロバイダーやシステム ビルダーが、A100 GPU を自社の製品やサービスに採用する予定です。それらのなかには、Alibaba Cloud や Amazon Web Services (AWS)、Atos, Baidu Cloud、Cisco、Dell Technologies、富士通、GIGABYTE、Google Cloud、H3C、Hewlett Packard Enterprise (HPE)、Inspur、Lenovo、Microsoft Azure、Oracle、Quanta/QCT、Supermicro、Tencent Cloud などが含まれています。
全世界で即座に採用 NVIDIA A100 GPU のパワーを採用する企業のなかには Microsoft も含まれており、同社は A100 の性能とスケーラビリティを活用する予定です。
Microsoft Corp. のコーポレート バイスプレジデントであるミハイル パラキン (Mikhail Parakhin) 氏は、次のように話しています。「Microsoft は、現行世代の NVIDIA GPU を積極的に活用して、世界最大の言語モデルである Turing Natural Language Generation を学習してきました。NVIDIA の新世代の A100 GPU を使用すれば、Azure ではるかに大規模な AI モデルを学習できるようになり、言語、音声、ビジョンおよびマルチモダリティの可能性がさらに押し広げられるでしょう。」
DoorDash はオンデマンドのフード プラットフォームを供給しており、パンデミックの最中での飲食業界のライフラインとなっています。同社は AI インフラストラクチャが柔軟性を持つことの重要性に注目しています。
DoorDash の機械学習エンジニアであるゲイリー レン (Gary Ren) 氏は、次のように話しています。「大量のデータを要求する今日の複雑な AI の学習や推論のワークロードは、モデルの学習時間の削減や、機械学習の開発プロセスのスピード向上などの点において、NVIDIA A100 GPU のような最先端のテクノロジから恩恵を受けることができます。さらに、クラウドベースの GPU クラスタを使用することで、必要に応じてスケール アップやスケール ダウンが可能な柔軟性が生まれ、効率性の向上、運用の簡略化、そしてコストの削減などに貢献することが新たにわかりました。」
その他のアーリー アダプターには、国立研究所やいくつかの世界最高レベルの教育機関および研究機関が含まれており、それぞれが A100 を使って次世代スーパーコンピューターに利用しようとしています。それらの機関には、以下が含まれています。
A100 の 5 つのブレイクスルー NVIDIA A100 GPU は、以下のような 5 つの主要なイノベーションにより、技術的デザインのブレイクスルーを実現しています:
これらの新機能により、NVIDIA A100 は AI の学習と推論だけでなく、科学シミュレーション、会話型 AI、レコメンデーション システム、ゲノミクス、ハイパフォーマンス データ アナリティクス、地震モデリングおよび金融予測といった、多様で要件の厳しいワークロードに最適な GPU です。
NVIDIA A100 が新たなシステムで利用可能になり、クラウドでの利用もまもなく可能に 本発表と共に発表された NVIDIA DGX A100™ システムには、NVIDIA NVLink で相互接続された 8 基の NVIDIA A100 GPU が搭載されています。このシステムは、NVIDIA および認定パートナーより間もなく提供が開始されます。
Alibaba Cloud、AWS、Baidu Cloud、Google Cloud、Microsoft Azure、Oracle および Tencent Cloud では、A100 を活用したサービスを計画しています。
また、A100 をベースにした多様なサーバーが、Atos やCisco、 Dell Technologies、富士通、GIGABYTE、H3C、HPE、Inspur、Lenovo、Quanta/QCT、Supermicro といった、世界の大手システム メーカーより発売される予定です。
パートナーのサーバー開発を加速させるために、NVIDIA は複数の GPU 構成で統合されたベースボード形式のサーバー ビルディング ブロックである HGX A100 を作成しました。
4 GPU の HGX A100 では、NVLink によってすべての GPU が相互接続され、8 GPU 構成では、NVIDIA NVSwitch™ を通じてすべての GPU が全帯域幅で接続されます。新しいマルチインスタンス GPU アーキテクチャを実装した HGX A100 は、それぞれが NVIDIA T4 より高速な56 個の小型 GPU という構成から、10 PFLOPS の AI 性能を持つ、巨大な 8 GPU サーバーにまでのあらゆる構成を組むことができます。
A100 向けの NVIDIA ソフトウェアの最適化 NVIDIA は、アプリケーション開発者が A100 のイノベーションを活用できるようにするために、ソフトウェア スタックのいくつかのアップデートも発表しました。このアップデートには、グラフィックス、シミュレーションおよび AI を高速化するために使用される 50 以上の CUDA-X™ ライブラリ、CUDA 11、マルチモーダルな対話型 AI サービスのフレームワークであるNVIDIA Jarvis、ディープラーニング レコメンデーション アプリケーション フレームワークの NVIDIA Merlin、ならびに HPC 開発者が A100 用のコードのデバッグおよび最適化を行うためのコンパイラ、ライブラリおよびツールで構成された NVIDIA HPC SDK の新バージョンが含まれています。
※NVIDIA Jarvis の名称は 2021 年 7 月に NVIDIA Riva に変更されました。
NVIDIA について 1999 年における NVIDIA (NASDAQ 表示: NVDA) による GPU の発明は、PC ゲーミング市場の成長に爆発的な拍車をかけ、現代のコンピューター グラフィックスを再定義し、並列コンピューティングに革命的変化を起こしました。最近では、GPU ディープラーニングが最新の AI (次世代コンピューティング) に火をつけ、世界を知覚し理解することができるコンピューター、ロボット、自律走行車の脳として GPU は機能しています。詳細は、こちらのリンクから: www.nvidia.com/ja-jp/
NVIDIA A100、NVIDIA Ampere GPU アーキテクチャ、NVIDIA NVLink インターコネクトテクノロジ、TF32 対応の Tensor コア、マルチインスタンス GPU、構造的疎性、NVIDIA DGX A100 システム、HGX A100および A100 対応の NVIDIA ソフトウェアの最適化を含む NVIDIA の製品およびテクノロジの利益、性能、機能および可用性、NVIDIA がデータセンターの構造的な変化を主導すること、NVIDIA A100 GPU ならびに Kubernetes と融合した Mellanox 高速ネットワーキングの影響、クラウド サービス プロバイダーやシステム ビルダーが A100 GPU を自社の製品やサービスに採用する予定となっていること、NVIDIA A100 GPU を使用して Microsoft が計画していること、および、国立の研究所や世界最高レベルの教育機関および調査機関が A100 の性能を活用して次世代のスーパーコンピューターを計画していることおよびそれに関連する影響など、本プレスリリースにおける一定の記載は将来の見通しに関する記述であり、予測とは著しく異なる結果を生ずる可能性があるリスクと不確実性を伴っています。かかるリスクと不確実性は、世界的な経済環境、サードパーティに依存する製品の製造・組立・梱包・試験、技術開発および競合による影響、新しい製品やテクノロジの開発あるいは既存の製品やテクノロジの改良、当社 製品やパートナー企業の製品の市場への浸透、デザイン・製造あるいはソフトウェアの欠陥、ユーザーの嗜好および需要の変化、業界標準やインターフェイスの変更、システム統合時に当社製品および技術の予期せぬパフォーマンスにより生じる損失などを含み、その他のリスクの詳細に関して は、Form 10-K での NVIDIA のアニュアル レポートならびに Form 10-Q での四半期レポートなど、米証券取引委員会 (SEC) に提出されている NVIDIA の報告書に適宜記載されます。SEC への提出書類は写しが NVIDIA の Web サイトに掲載されており、NVIDIA から無償で入手すること ができます。これらの将来予測的な記述は発表日時点の見解に基づくものであって将来的な業績を保証するものではなく、法律による定めがある 場合を除き、今後発生する事態や環境の変化に応じてこれらの記述を更新する義務を NVIDIA は一切負いません。
© 2020 NVIDIA Corporation. All rights reserved. NVIDIA、NVIDIA のロゴ、CUDA-X、DGX A100、NVLink、NVSwitch および TensorRT は、米国およびその他の国における NVIDIA Corporation の商標または登録商標です。その他の会社名および製品名は、それぞれの所有企業の商標または登録商標である可能性があります。機能、価格、可用性、および仕様は予告なしに変更されることがあります。