世界唯一のペタスケール統合型 AI ワークグループ サーバーである、 第 2 世代の DGX Station が 4 基の NVIDIA A100 GPU と 最大 320GB の GPU メモリを搭載し、オフィスおよび研究室での AI の活用を推進
2020 年 11 月 16 日、カリフォルニア州サンタクララ ー SC20 ー NVIDIA は本日、世界唯一のペタスケール ワークグループ サーバーである、NVIDIA DGX Station™ A100 を発表しました。画期的な AI システムの第 2 世代となる DGX Station A100 は、企業のオフィスや研究施設、研究所またはホーム オフィスなど、あらゆるところでチームで作業するのに必要とされている機械学習とデータサイエンスのワークロードを加速します。
2.5 PFLOPS の AI 性能を誇る DGX Station A100 は、NVIDIA NVLink® にて完全に相互接続されている 4 基の NVIDIA® A100 Tensor コア GPUと、最大 320GB の GPU メモリが搭載されている唯一のワーキンググループ サーバーであり、企業のデータサイエンスや AI でのブレイクスルーを後押しします。
DGX Station A100 は、NVIDIA マルチインスタンス GPU (MIG) テクノロジに対応している、唯一のワークグループ サーバーでもあります。MIG により、1 台の DGX Station A100 から最大 28 の個別の GPU インスタンスを生成し、システムの性能に影響を及ぼすことなく、並行に作業を実行し、複数のユーザーに対応できるようになります。
NVIDIA の DGX システム担当バイスプレジデント兼ジェネラルマネージャーであるチャーリー ボイル (Charlie Boyle) は、次のように述べています。「DGX Station A100 は、あらゆる場所に組み込めるサーバークラスのシステムで、データセンター以外でも AI の活用を可能にします。データサイエンスや AI の研究チームでは、NVIDIA DGX A100 システムと同じソフトウェア スタックを使って作業をスピードアップできるようになり、開発から実装までの過程を簡単に進められるようになります」
DGX Station が AI のイノベーションを後押し 世界中の企業や研究所が DGX Station を導入し、教育や金融サービス、政府、ヘルスケア、リテールといった、多様な業界で AI とデータサイエンスを利用できるようになっています。このような AI リーダーには、以下のような組織が含まれています。
あらゆる場所に AI スーパーコンピューターを DGX Station A100 は、データセンターのような電力または冷却性能を必要としないにもかかわらず、NVIDIA DGX A100 データセンター システムと同じリモート管理機能を備えている、サーバークラスのシステムです。システム管理者は、データ サイエンティストや研究者が自宅または研究所のどちらで作業しているときでも、リモート接続によって管理作業を簡単に遂行することができます。
DGX Station A100 には、80GB または 40GB の NVIDIA A100 Tensor コア GPU を 4 基搭載することが可能です。データサイエンスや AI の研究チームは、それぞれのワークロードと予算に応じて GPU を選択することができます。
BERT Large の推論のような、複雑な対話型 AI モデルに対応するために、DGX Station A100 は、前世代の DGX Station に比べて、処理速度が 4 倍以上速くなっています。また、BERT Large の AI トレーニングのための性能が 3 倍近く向上しています。
AI、HPC のために GPU メモリを倍増 最先端のデータセンター ワークロードに対応するために、DGX A100 システムに、新しい NVIDIA A100 80GB GPU を搭載することができるようになります。システム当たりの GPU メモリ容量が 640GB へと倍増し、AI チームは大規模なデータセットやモデルでの精度をさらに高めることができます。
新しい NVIDIA DGX A100 640GB システムは、NVIDIA DGX SuperPOD™ Solution for Enterprise との統合も可能で、企業や研究所は、20 台の DGX A100 システムで構成されたターンキーの AI スーパーコンピューターによって、大規模な AI モデルの構築、トレーニングおよび展開を行えるようになります。
DGX A100 640GB が搭載された、DGX SuperPOD システムの最初の導入先には、ヘルスケアでの研究を加速するために英国で導入される Cambridge-1 スーパーコンピューター、ならびに米国フロリダ州で AI を活用した研究を支援している、新しいフロリダ大学 HiPerGator AI スーパーコンピューターが含まれています。
発売予定 NVIDIA DGX Station A100 および NVIDIA DGX A100 640GB は、全世界の NVIDIA Partner Network リセラーを通じて、本四半期に発売される予定です。MVIDIA DGX A100 320GB のお客様は、アップグレードのオプションをお選びいただけます。
DGX Station A100 の詳しい情報は、11月17日午前8時(日本時間) からライブ配信される NVIDIA SC20 Special Address でご覧になれます。また、12 月 3 日 午前2時(日本時間) に予定されている、DGX Station についてのウェビナー、Learn to Build Bigger AI, Faster にもご登録ください。
NVIDIA について 1999 年における NVIDIA (NASDAQ 表示: NVDA) による GPU の発明は、PC ゲーミング市場の成長に爆発的な拍車をかけ、現代のコンピューター グラフィックスを再定義し、並列コンピューティングに革命的変化を起こしました。最近では、GPU ディープラーニングが最新の AI (次世代コンピューティング) に火をつけ、世界を知覚し理解することができるコンピューター、ロボット、自律走行車の脳として GPU は機能しています。詳細は、こちらのリンクから: http://nvidianews.nvidia.com/
NVIDIA DGX Station A100 の利益、性能、機能および能力、DGX Station A100 によりAI がデータセンターから持ち出され、あらゆる作業場所にもたらされること、その設置率、数百万人のデータサイエンティストおよび AI 研究者の仕事が加速することおよびその拡大、企業が NVIDIA DGX Station を使用することおよびその利用の仕方、AI モデルの規模と成長およびDGX Station A100 システムがその処理に利用されること、DGX A100 システムが NVIDIA DGX SuperPOD Solution for Enterprise に組み込まれることおよびそれによって可能になること、NVIDIA DGX SuperPOD システムの最初の導入、およびNVIDIA DGX Station A100 システムの価格と可用性など、本プレスリリースにおける一定の記載は将来の見通しに関する記述であり、予測とは著しく異なる結果を生ずる可能性があるリスクと不確実性を伴っています。かかるリスクと不確実性は、世界的な経済環境、サードパーティに依存する製品の製造・組立・梱包・試験、技術開発および競合による影響、新しい製品やテクノロジの開発あるいは既存の製品やテクノロジの改良、当社製品やパートナー企業の製品の市場への浸透、デザイン・製造あるいはソフトウェアの欠陥、ユーザーの嗜好および需要の変化、業界標準やインターフェイスの変更、システム統合時に当社製品および技術の予期せぬパフォーマンスにより生じる損失などを含み、その他のリスクの詳細に関しては、Form 10-K での NVIDIA のアニュアル レポートならびに Form 10-Q での四半期レポートなど、米証券取引委員会 (SEC) に提出されている NVIDIA の報告書に適宜記載されます。SEC への提出書類は写しが NVIDIA の Web サイトに掲載されており、NVIDIA から無償で入手することができます。これらの将来予測的な記述は発表日時点の見解に基づくものであって将来的な業績を保証するものではなく、法律による定めがある 場合を除き、今後発生する事態や環境の変化に応じてこれらの記述を更新する義務を NVIDIA は一切負いません。
© 2020 NVIDIA Corporation. All rights reserved. NVIDIA、NVIDIA ロゴ、NVIDIA DGX Station、NVIDIA DGX SuperPOD および NVLink は、米国およびその他の国における NVIDIA Corporationの商標または登録商標です。その他の会社名および製品名は、それぞれの所有企業の商標または登録商標である可能性があります。機能、価格、利用の可否および仕様は予告なく変更される場合があります。