使用中のデータや AI モデルを安全に保護。
データ、AI モデル、アプリケーションが使用されるとき、展開場所 (オンプレミス、クラウド、エッジ) に関係なく、外部の攻撃や内部の脅威に弱くなります。NVIDIA Hopper™ アーキテクチャで導入された画期的なセキュリティ機能である NVIDIA コンフィデンシャル コンピューティングはそのような脅威を減らし、ユーザーは AI ワークロードに NVIDIA H100 Tensor コア GPU のかつてない高速化を利用できます。ハードウェアベースの強力なセキュリティを利用し、無許可のアクセスから機密データや所有財産の AI モデルを保護します。
オンプレミス、クラウド、エッジで仮想マシン (VM) を完全に分離します。CPU と H100 GPU の間のデータ転送は PCIe ラインレートで暗号化され、復号されます。物理的に隔離された TEE (Trusted Execution Environment) は、H100 GPU でワークロード全体を守る組み込みのハードウェア ファイアウォールによって作られます。
使用されているデータと AI ワークロードの両方の機密性と完全性を守ります。ハイパーバイザー、ホスト Os、クラウド プロバイダー、そしてインフラストラクチャに物理的にアクセスできるあらゆる人間など、無許可のエンティティは実行中の AI アプリケーションやデータを表示することも変更することもできません。顧客の機密データや知的財産が保護されます。
H100 の TEE 内では、許可されたエンド ユーザーだけがデータやコードを実行できるようにします。また、デバイス証明によって、ユーザーが本物の NVIDIA H100 GPU を使用していること、ファームウェアが改ざんされていないこと、GPU ファームウェアが正常に更新されていることが確認されます。
1 個の H100 GPU で、または 1 ノード内の複数の H100 GPU で実行されている AI ワークロード全体を保護します。また、個々の MIG インスタンスで実行されている AI ワークロードを物理的に隔離し、保護しできます。1 個の H100 GPU で複数のテナントのコンフィデンシャル コンピューティングを有効にし、インフラストラクチャの利用を最適化します。
GPU で高速化されるワークロードでほとんどの場合に必要となるコード変更なしで、コンフィデンシャル コンピューティングのあらゆる利点を活用できます。NVIDIA の GPU 最適化ソフトウェアを使用し、H100 GPU でエンドツーエンドの AI ワークロードを加速し、同時にセキュリティ、プライバシー、規制コンプライアンスを維持します。
NVIDIA コンフィデンシャル コンピューティングは、H100 GPU に展開される AI モデルとアルゴリズムの機密性と完全性を維持します。独立系ソフトウェア ベンダー (ISV) は、サードパーティ データ センター、同一場所設置のデータ センター、エッジ インフラストラクチャ、パブリック クラウドなど、共有またはリモート インフラストラクチャで、所有財産の AI モデルを大規模に配布し、展開できるようになりました。それにより、小売や製造などの産業で ISV は、AI ソリューションを広く使えるようにし、同時に、知的財産 (IP) を無許可のアクセスや改ざんから保護できます。展開インフラストラクチャに物理的に接近できる人間からも守ることができます。
AI モデルをトレーニングして収束することは、大量の計算を必要とし、複雑な繰り返しプロセスです。膨大なデータで運用する必要があります。トレーニング後、AI モデルは企業アプリケーション内に統合され、提示された新しいデータについて推論し、予測します。PII (個人を特定できる情報) など、AI モデルのトレーニングと推論の両方に使用されるデータが機密であり、規制されている金融、医療、公共事業などの産業が急増しています。NVIDIA コンフィデンシャル コンピューティングを導入すれば、オンプレミス、クラウド、エッジに関係なく、AI のトレーニングと推論の間も、企業はデータの機密性を維持できます。
詐欺検出、医用画像処理、創薬などの用途で AI モデルを構築し、改善するには、ニューラル ネットワークをトレーニングするため、注意深くラベルが付けられた多様なデータセットが必要です。それには、データ ソースの機密性と完全性に妥協しない、複数のパーティ間のコラボレーションが必要になります。NVIDIA コンフィデンシャル コンピューティングは安全なマルチパーティ コンピューティングを可能にします。組織は協力し合い、AI モデルをトレーニングし、評価できます。参加するすべてのサイトで、データと AI モデルの両方を無許可のアクセス、外部からの攻撃、内部の脅威から保護します。
仕様は変更される場合があります。