世界の大手システム メーカーがNVIDIA A100 搭載のサーバーを発表し、AI、データサイエンスおよびサイエンティフィック コンピューティングを加速

Cisco、Dell Technologies、HPE、Inspur、Lenovo、Supermicro などが、今夏にシステムを発売

2020 年 6 月 22 日、カリフォルニア州サンタクララ - ISC 2020 Digital - NVIDIA と世界の大手サーバー メーカーは本日、AI、データサイエンスおよびサイエンティフィック コンピューティングのもっとも困難な課題に対処するさまざまな設計および構成の NVIDIA A100 搭載システムを発表しました。

NVIDIA Ampere アーキテクチャおよび NVIDIA A100 GPU が先月発表されたのを受け、ASUS や Atos、Cisco、Dell Technologies、富士通、GIGABYTE、Hewlett Packard Enterprise、Inspur、Lenovo、One Stop Systems、Quanta/QCT、Supermicro を含む、世界中の大手ベンダーから 50 以上の A100 搭載サーバーが発売される予定です。

サーバーの発売時期は様々ですが、今夏に 30 のシステムが投入され、さらに 20 以上のシステムが年末までに発売される見込みです。

NVIDIA のアクセラレーテッド コンピューティング担当 ゼネラルマネージャー兼バイスプレジデントであるイアン バック (Ian Buck) は、次のように述べています。「NVIDIA A100 GPU がこんなに早く大手サーバー メーカーのラインアップに加わるような例は、これまで見たことがありません。NVIDIA のパートナーから発売される NVIDIA A100 サーバーは品揃えがきわめて豊富であり、お客様はデータセンターを加速するために最適なオプションを選ぶことで、利用率を高め、総費用を抑制できるようになります。」

NVIDIA Ampere アーキテクチャをベースにした初の GPU である A100 は、前世代の GPU に比べて性能を最大で 20倍 向上させています。これは、NVIDIA の GPU の性能向上における最大の進歩です。A100 には、1 つの GPU を最大 7 つの GPU に分割して多様な演算処理に対処できるようにする、新しいマルチインスタンス GPU テクノロジや、複数の GPU を組み合わせて 1 つの巨大な GPU として機能させる、第 3 世代の NVIDIA® NVLink® テクノロジ、GPU の性能を 2 倍にすることのできる、新しい構造的疎性機能といった、技術的ブレイクスルーがいくつも実装されています。

NVIDIA はさらに、A100 用の PCIe フォームファクターを発表し、先月発表された NVIDIA HGX™ A100 の4Wayと8Wayを補完しました。PCIe バージョンの追加により、サーバー メーカーは、A100 GPU を 1 基搭載したシステムから、10 基以上の A100 GPU を搭載したサーバーまで、多様な選択肢を顧客に提供できるようになります。これらのシステムは、創薬のための分子の振る舞いのシミュレーションから、ローン承認を得るためのより良い財務モデルの構築に至る、多様な演算集中型ワークフローを加速します。

以下のサーバー メーカーが、NVIDIA A100 を搭載したシステムを顧客に届けます。

  • ASUS は、1 台のサーバーに 4 基の A100 PCIe GPU を構成できる、ESC4000A-E10 を発売します。
  • Atos は、NVIDIA A100 Tensor コア GPUを4基搭載したBullSequana X2415システムを提供します。
  • Cisco は、同社の Cisco Unified Computing System サーバーとハイパーコンバージド インフラストラクチャ システムの Cisco HyperFlex で NVIDIA A100 Tensor コア GPU を採用する計画を立てています。
  • Dell Technologies は、これまでさまざまな製品で NVIDIA の他のGPU アクセルレーター、ソフトウェアおよびテクノロジに対応してきたように、エッジから、コアおよびクラウドまでのワークロードを加速する、同社の PowerEdge サーバーおよびソリューションに NVIDIA A100 Tensor コア GPU を搭載する計画を立てています。
  • 富士通は、同社の PRIMERGY サーバー シリーズに A100 GPU を搭載します。
  • GIGABYTE は、G481-HA0、G492-Z50 および G492-Z51 サーバーに最大 10 基の A100 PCIe GPU を搭載するほか、G292-Z40 では最大 8 基の A100 PCIe GPU を搭載する予定です。
  • HPE は、HPE ProLiant DL380 Gen10 サーバーとともに、HPC と AI のワークロードの加速を目的とした HPE Apollo 6500 Gen10 システムにも A100 PCIe GPU を搭載します。
  • Inspur は、A100 PCIe GPU 搭載の NF5468M5、NF5468M6 および NF5468A5、NVLink 8Way を実装した NF5488M5-D、NF5488A5、NF5488M6 および NF5688M6、ならびにNVLink 16Way を実装した NF5888M6 といった、8 つの NVIDIA A100 搭載システムをリリースします。
  • Lenovo は、Lenovo ThinkSystem SR670 AI-ready サーバーなどの一部のシステムで A100 PCIe GPU に対応します。Lenovo は今秋、同社の ThinkSystem および ThinkAgile のポートフォリオ全体にわたって A100 を搭載する予定です。
  • One Stop Systems は、同社の OSS 4UV Gen 4 PCIe 拡張システムに最大 8 基の NVIDIA A100 PCIe GPU を搭載し、AI および HPC を利用する顧客が Gen 4 サーバーの性能を大幅に向上できるようにします。
  • Quanta/QCT は、D52BV-2U や D43KQ-2U、D52G-4U といった、いくつかの QuantaGrid サーバーに最大 8 基の NVIDIA A100 PCIe GPU を搭載する予定です。
  • Supermicro は、同社の 4U A+ GPU システムに最大 8 基の NVIDIA A100 PCIe GPU を搭載し、他の 1U, 2U および 4U GPU サーバーには、最大 2 つの高性能 PCI-E 4.0 拡張スロットを追加する予定です。

NVIDIA は、NGC-Ready™ 認証システムを拡大しています。NVIDIA と直接連携することにより、システム ベンダーは、自社の A100 搭載サーバーで NGC-Ready 認証を取得することができます。NGC-Ready 認証は、システムが AI ワークロードを実行するのに必要な性能があることを顧客に保証するものです。

NGC-Ready のシステムは、データセンター、クラウドおよびエッジで NVIDIA GPU 搭載システムを利用するために構築された NVIDIA の NGC™ レジストリにある、GPU 向けに最適化された AI ソフトウェアを使ったテストを受けています。

NVIDIA A100 向けに最適化されたソフトウェアが利用可能に
NVIDIA A100 は、CUDA 11 、50 以上ある CUDA-X™ ライブラリの新バージョン、マルチモーダル対話型 AI サービス フレームワークである NVIDIA Jarvis、ディープ レコメンデーション アプリケーション フレームワークである NVIDIA Merlin、オープンソースのデータサイエンス ソフトウェア ライブラリのスイートである RAPIDS™、および開発者の生産性ならびに HPC アプリケーションの性能と移植性を最大化するコンパイラ、ライブラリおよびソフトウェア ツールで構成された NVIDIA HPC SDK のような NVIDIA Ampere に最適化されたソフトウェアに対応しています。

これらのパワフルなソフトウェア ツールにより、開発者は、HPC、ゲノミクス、5G、データサイエンス、ロボティクスなどのアプリケーションの構築および加速が可能になります。

NVIDIA について
1999 年における NVIDIA (NASDAQ 表示: NVDA) による GPU の発明は、PC ゲーミング市場の成長に爆発的な拍車をかけ、現代のコンピューター グラフィックスを再定義し、並列コンピューティングに革命的変化を起こしました。最近では、GPU ディープラーニングが最新の AI (次世代コンピューティング) に火をつけ、世界を知覚し理解することができるコンピューター、ロボット、自律走行車の脳として GPU は機能しています。詳細は、こちらのリンクから: www.nvidia.com/ja-jp/