KVM ベースのインフラストラクチャでコンピューティング サーバーのワークロードにパワーを与える
AI、ディープラーニング、データ サイエンスのワークフローは、前例のない計算能力を必要とします。NVIDIA Virtual Compute Server (vCS) を導入すると、 Red Hat RHV/RHEL やその他の KVM ベース ハイパーバイザーで実行されているデータ センターでは、NVIDIA A100 Tensor コア GPU を含む、最新の NVIDIA データ センター GPU でデータ センターのサーバー仮想化を加速します。人工知能 (AI)、ディープラーニング、データサイエンスなど、非常に多くの計算リソースを必要とするワークロードが、NVIDIA vGPU テクノロジを採用した仮想マシン (VM) で実行できます。これは仮想化にとって取るに足りない一歩ではありません。大きな飛躍です。
NVIDIA 仮想 GPU は、GPU で加速された AI 向けのハイパーバイザーベースの仮想化環境で、ベア メタルに近いパフォーマンスを実現し、最大限の使用率、管理、監視を実現できます。
開発者、データ サイエンティスト、研究者、学生は、ディープラーニングのトレーニングに膨大な量の計算処理能力を必要としています。NVIDIA の A100 Tensor コア GPU がワークロードを加速し、より高速で実行できるようにします。NVIDIA ソフトウェアと仮想コンピューティング サーバーは、複数の GPU を使用する大規模なディープラーニングのトレーニング モデルにスケーリングする場合でも、ベア メタルとほぼ同じパフォーマンスを実現します。
マルチインスタンス GPU (MIG) は、NVIDIA A100 Tensor コア GPU でのみ使用されるテクノロジで、A100 GPU を 7 つのインスタンスに分割し、それぞれが独自の高帯域幅メモリ、キャッシュ、コンピューティングのコアで完全に分離されます。MIG では、仮想コンピューティング サーバーで各 MIG インスタンスに 1 つの VM を使用できます。 ベア メタルと vCS による仮想化の両方で、複数の MIG インスタンスを対象に推論ワークロードを実行しても、パフォーマンスは安定します。
NVIDIA Virtual Compute Server は KVM ベース インフラストラクチャでパフォーマンスを最大化し、IT 管理を簡単にします。その方法をご覧ください。
貴重な GPU リソースを利用して、推論などの軽いワークロードには GPU 共有をシームレスにプロビジョニングしたり、ディープラーニング トレーニングなどの計算負荷の高いワークロードには複数の仮想 GPU をプロビジョニングすることができます。
データ サイエンティストや研究者が利用するシステムの高可用性とアップタイムを確保します。ゲスト、ホスト、アプリケーションの各レベルで GPU パフォーマンスを簡単に監視できます。一時停止/再開やライブ マイグレーションなどの管理ツールを利用することもできます。GPU 仮想化の運用上のメリットの詳細について、ご覧ください。
Virtual Compute Server は、NVIDIA A100 Tensor コア GPU、NVIDIA A40 Tensor コア GPU、NVIDIA T4 Tensor コア GPU、NVIDIA V100 Tensor コア GPU など、最もパワフルな NVIDIA GPU によってサポートされています。
推奨される仮想化向け NVIDIA GPU の全リストをご覧ください。
NVIDIA は、「認定サーバーを探す」ページに掲載されている、OEM パートナーの幅広いエコシステムと提携しています。
90 日間の無償評価版に登録する
NVIDIA vGPU ソリューションは、NVIDIA パートナー ネットワーク (NPN) パートナーから購入していただけます。トレーニングを受けた NVIDIA のパートナーの広範なネットワークが、最適な高速化された仮想化環境の構築と導入をサポートします。
NVIDIA 仮想 PC (vPC) と仮想アプリケーション (vApp) と NVIDIA RTX 仮想ワークステーション (vWS) は、ナレッジ ワーカーやクリエイティブまたはテクニカル プロフェッショナル向けに設計された仮想グラフィックス用のクライアント コンピューティング製品です。vCS は、AI、ディープラーニング、データ サイエンスなど、計算負荷の高いサーバー ワークロードに適しています。
いいえ。vCS では、vPC/vApp や vWS とは異なる方法でライセンスを供与しています。vPC/vApp および vWS では、同時接続ユーザー (CCU) によって、永続ライセンスまたは年間サブスクリプションのいずれかのライセンスが供与されます。vCS は、サーバー コンピューティング ワークロードに適しており、ライセンスは物理 GPU に関連付けられています。したがって、vCS の場合、物理 GPU 単位の年間サブスクリプションとしてライセンスが付与されます。ライセンスの詳細については、『NVIDIA Virtual GPU Packaging, Pricing, and Licensing Guide』を参照してください。
詳細なサポート構成については、NVIDIA vGPU ソフトウェア関連ドキュメント ページの「ソフトウェアのリリース バージョン」下にある「サポートされている製品」リンクを参照してください。VMware vSphere および Red Hat RHEL/RHV では、NVIDIA A100、 A40、A30、および A10 Tensor コア GPU によって vCS をサポートします。
詳しいサポートについては、NVIDIA vGPU Software Documentation ページを参照してください。ソフトウェア リリース バージョンの下に「Supported Products (サポートされている製品)」リンクがあります。Red Hat RHV/RHEL、Nutanix、Canonical、SUSE などの KVM ベース ハイパーバイザーでは vCS がサポートされています。
すべての vGPU 製品を対象とする認定サーバーの全リストについては、vGPU 認定サーバーのページをご覧ください。
はい。vCS では、VM 内でコンテナーを実行できます。NVIDIA NGC では、ディープラーニング、機械学習、HPC に適した GPU 対応コンテナーの総合カタログを提供しています。vCS を使用して、VM 内でコンテナーなしでワークロードを直接実行することもできます。
グラフィックス アプリケーションを使用するクリエイティブ プロフェッショナルとテクニカル プロフェッショナル向けの仮想ワークステーション。
オフィスの生産性向上アプリケーション & マルチメディアを使用するナレッジ ワーカー向けの仮想デスクトップ (VDI)。
リモート デスクトップ セッション ホスト (RDSH) ソリューションを使用したアプリケーション ストリーミング。
NVIDIA vGPU ソリューションを販売する NVIDIA パートナーを探す NVIDIA パートナーを探します。
最新の NVIDIA vGPU ソフトウェアにアクセスします。
NVIDIA エンタープライズ サポートに お問い合わせください。