NVIDIA が DGX Cloud を発表、すべての企業がブラウザーから AI スーパーコンピューターに即座にアクセス可能に

Oracle Cloud Infrastructure で初めて NVIDIA AI スーパーコンピューティング インスタンスを実行 Microsoft Azure、Google Cloud、その他が近日中に DGX Cloud をホスト開始

カリフォルニア州サンタクララ — GTC — 2023 年 3 月 21 日 — NVIDIA は本日、ジェネレーティブ AI やその他の画期的なアプリケーションの高度なモデルをトレーニングするために必要なインフラストラクチャとソフトウェアに企業がすぐにアクセスできるようにする AI スーパーコンピューティング サービス、NVIDIA DGX Cloud ™ を発表しました。

DGX Cloud は、NVIDIA AIソフトウェアと組み合わせた NVIDIA DGX™ AI スーパーコンピューティングの専用クラスターを提供します。 このサービスにより、すべての企業がシンプルな ウェブブラウザーを使用して独自の AI スーパーコンピューターにアクセスできるようになり、オンプレミス インフラストラクチャの取得、展開、および管理の複雑さが解消されます。

企業は月単位で DGX Cloud クラスターをレンタルが可能です。これにより、多くの場合、需要の高い高速化されたコンピューティング リソースを待つことなく、大規模なマルチノード トレーニング ワークロードの開発を迅速かつ簡単にスケーリングできます。

NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は次のように語っています。「私たちは今、AIにおけるiPhone の瞬間にいます。 スタートアップ企業は破壊的な製品やビジネス モデルを構築しようと競争しており、既存企業はそれに応えようとしています。DGX Cloud により、顧客は世界規模のクラウドで NVIDIA AI スーパーコンピューティングに即座にアクセスできるようになります」

NVIDIA は、主要なクラウド サービス プロバイダーと提携して、Oracle Cloud Infrastructure (OCI) をはじめとする DGX Cloud インフラストラクチャをホストしています。 その OCI RDMA Superclusterは、専用の RDMA ネットワーク、ベアメタル コンピューティング、および 32,000 以上の GPU のスーパークラスターに拡張できる高性能なローカルおよびブロック ストレージを提供します。

Microsoft Azure は次の四半期に DGX Cloud のホストを開始する予定であり、サービスはまもなく Google Cloud などに拡大されます。

業界の巨人が NVIDIA DGX クラウドを採用して成功を加速
世界をリードするバイオテクノロジー企業の 1 つである Amgen、保険技術のリーダーである CCC Intelligent Solutions (CCC)、およびデジタル ビジネス プラットフォーム プロバイダーの ServiceNow は、DGX Cloud を使用する最初の AI パイオニアです。

Amgen は、NVIDIA BioNeMo ™ 大規模言語モデル ソフトウェアと共に DGX Cloud を使用して、NVIDIA RAPIDS ™ データ サイエンス アクセラレーション ライブラリを備えた NVIDIA AI Enterprise ソフトウェアを含む創薬を加速しています。

Amgenのリサーチ、バイオロジクス治療発見、デジタルイノベーションによる研究加速センターのエグゼクティブディレクターであるPeter Grandsard氏は次のように述べています。「NVIDIA DGX Cloud と NVIDIA BioNeMo を使用することで、当社の研究者は、AI インフラストラクチャに対処し、 ML エンジニアリングをセットアップする必要がなくなり、より深い生物学に集中できるようになりました。DGX Cloud の強力なコンピューティング機能とマルチノード機能により、他のプラットフォームと比較して、BioNeMo を使用したタンパク質 LLM のトレーニングを 3 倍高速化し、NVIDIA RAPIDS を使用したトレーニング後の分析を最大 100 倍高速化することができました」

損害保険業界向けの主要なクラウド プラットフォームである CCC は、DGX Cloud を使用して AI モデルの開発とトレーニングを高速化および拡張しています。 これらのモデルは、同社の革新的な自動請求解決ソリューションを強化し、業界のインテリジェントな自動化を加速し、何百万人ものビジネス ユーザーとその消費者の毎日の請求時の体験を向上させます。

ServiceNow は、オンプレミスの NVIDIA DGX スーパーコンピューターで DGX Cloud を使用して、柔軟でスケーラブルなハイブリッド クラウド AI スーパーコンピューティングを実現し、大規模な言語モデル、コード生成、およびカジュアル分析に関する AI 研究を強化しています。 ServiceNow は、NVIDIA の Megatron-LM フレームワークでトレーニングされた責任あるオープン サイエンス生成 AI イニシアチブである BigCode プロジェクトの共同管理者でもあります。

NVIDIA AI スーパーコンピューティングとソフトウェアへのブラウザーを開く
企業は、NVIDIA Base Command Platform ソフトウェアを使用して DGX Cloud トレーニング ワークロードを管理およびモニタリングします。これにより、DGX Cloud およびオンプレミスの  NVIDIA DGX スーパーコンピューター全体でシームレスなユーザー エクスペリエンスが提供されます。 Base Command Platform を使用すると、顧客はワークロードを、各ジョブに必要な適切な量とタイプの DGX インフラストラクチャに合わせることができます。

DGX Cloud には、NVIDIA AI プラットフォームのソフトウェア レイヤーである NVIDIA AI Enterprise が含まれており、エンド ツー エンドの AI フレームワークと事前トレーニング済みのモデルを提供して、データ サイエンス パイプラインを加速し、本番 AI の開発と展開を合理化します。 本日リリースされた NVIDIA AI Enterprise 3.1  で利用可能な、新しい事前トレーニング済みモデル、最適化されたフレームワーク、および高速化されたデータ サイエンス ソフトウェア ライブラリにより、開発者は AI プロジェクトをすぐに開始できます。

DGX Cloud の各インスタンスは、NVIDIA H100 または A100 80 GB Tensor コア GPU を 8 基搭載し、ノードあたり合計 640 GB の GPU メモリを提供します。 NVIDIA Networking で構築された高性能で低遅延のファブリックにより、相互接続されたシステムのクラスター間でワークロードをスケーリングできるため、複数のインスタンスが 1 つの大規模な GPU として機能し、高度な AI トレーニングのパフォーマンス要件を満たすことができます。 高性能ストレージが DGX Cloud に統合され、AI スーパーコンピューティングのための完全なソリューションを提供します。

DGX Cloud は、AI 開発パイプライン全体で NVIDIA のエキスパートによるサポートを特徴としています。 顧客は、NVIDIA のエンジニアと直接協力してモデルを最適化し、幅広い業界のユース ケースで開発上の課題を迅速に解決できます。

提供について
DGX Cloud インスタンスは、インスタンスあたり月額 36,999 ドルからご利用いただけます。 詳細について NPN パートナーにお問い合わせください。

フアンがオンデマンドの GTC 基調講演で NVIDIA DGX Cloud について話しているのを視聴し、NVIDIA DGX Cloud のパイオニアたちによる GTC パネルに参加してください。

NVIDIA について
1993 年の設立以来、NVIDIA (NASDAQ: NVDA) はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、メタバースの創造を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細については、https://nvidianews.nvidia.com/ を参照してください。

本プレス リリースの特定の記述には、以下に関する記述が含まれますが、これらに限定されません。DGX Cloud、NVIDIA DGX、NVIDIA AI ソフトウェア、NVIDIA BioNeMo、NVIDIA AI Enterprise、NVIDIA RAPIDS、NVIDIA Base Command、および NVIDIA GPU を含む、当社の製品、テクノロジ、およびサービスの利点、影響、仕様、および可用性。AIのiPhoneの瞬間。 破壊的な製品やビジネス モデルの構築を競う新興企業と、それに対応しようとする既存企業。 DGX Cloud インフラストラクチャをホストする主要なクラウド サービス プロバイダー。 および DGX Cloud を使用する第三者は、その利点と影響を含め、将来の見通しに関する記述であり、予想とは大幅に異なる結果をもたらす可能性のあるリスクと不確実性を伴います。 実際の結果が大きく異なる可能性がある重要な要因には、次のものがあります。 製品の製造、組み立て、パッケージ化、およびテストを第三者に依存すること。 技術開発と競争の影響。 新製品および技術の開発、または当社の既存の製品および技術の強化。 当社の製品またはパートナーの製品の市場での受け入れ。 設計、製造、またはソフトウェアの欠陥; 消費者の好みや要求の変化。 業界標準とインターフェースの変更。 システムに統合された場合の当社の製品または技術の予期しないパフォーマンスの損失。 フォーム 10-K による年次報告書およびフォーム 10-Q による四半期報告書を含むがこれらに限定されない、NVIDIA が米国証券取引委員会 (SEC) に提出する最新の報告書で随時詳述されるその他の要因 . SEC に提出されたレポートのコピーは、同社の ウェブサイトに掲載されており、NVIDIA から無料で入手できます。 これらの将来の見通しに関する記述は、将来の業績を保証するものではなく、本書の日付の時点でのみ述べているものであり、法律で義務付けられている場合を除き、NVIDIA は将来の出来事や状況を反映するためにこれらの将来の見通しに関する記述を更新する義務を否認します。

© 2023 NVIDIA Corporation. All rights reserved. NVIDIA、NVIDIA ロゴ、BioNeMo、DGX、DGX Cloud、NVIDIA Base Command、およびRAPIDSは米国およびその他の国々の NVIDIA Corporation (エヌビディア コーポレーション) の商標かつ/あるいは登録商標です。その他の会社名、機関名や製品名についても、それらに関連付けられる各機関の商標である可能性があります。製品の特徴、価格、利用の可否および仕様は、予告なしに変更されることがあります。