NVIDIA Confidential Computing

Sichere Daten- und KI-Modelle im Einsatz.

Schutz der Vertraulichkeit und Integrität der verwendeten KI-Workloads

Die verwendeten Daten, KI-Modelle und Anwendungen sind für externe Angriffe und interne Bedrohungen anfällig, ganz gleich, ob sie lokal, in der Cloud oder am Edge bereitgestellt werden. NVIDIA Confidential Computing, eine bahnbrechende Sicherheitsfunktion, die mit der NVIDIA Hopper-Architektur eingeführt wurde, mindert diese Bedrohungen und bietet Benutzern gleichzeitig Zugang zur beispiellosen Beschleunigung von NVIDIA H100 Tensor Core-GPUs für KI-Workloads. Schützen Sie sensible Daten und proprietäre KI-Modelle mit starker hardwarebasierter Sicherheit vor unbefugtem Zugriff.

Die Vorteile von NVIDIA Confidential Computing

Hardwarebasierte Sicherheit und Isolation

Erreichen Sie die vollständige Isolation virtueller Maschinen (VMs) vor Ort, in der Cloud oder am Edge. Datenübertragungen zwischen der CPU und dem H100-Grafikprozessor werden mit PCIe-Übertragungsgeschwindigkeit ver- und entschlüsselt. Eine physisch isolierte vertrauenswürdige Ausführungsumgebung (trusted execution environment, TEE) wird mit integrierten Hardware-Firewalls erstellt, die die gesamte Workload auf dem H100-Grafikprozessor sichern.

Schutz vor unbefugtem Zugriff

Schützen Sie die Vertraulichkeit und Integrität der verwendeten Daten und KI-Workloads Unbefugte, einschließlich Hypervisor, Host-Betriebssystem, Cloud-Anbieter und aller, die physischen Zugriff auf die Infrastruktur haben, können die KI-Anwendung und -Daten während der Ausführung nicht anzeigen oder ändern. Dadurch werden sensible Kundendaten und geistiges Eigentum geschützt.

Überprüfbarkeit mit Gerätebestätigung   

Stellen Sie sicher, dass nur autorisierte Endbenutzer Daten und Code für die Ausführung in der TEE des H100 speichern können. Darüber hinaus wird durch die Gerätebestätigung sichergestellt, dass der Benutzer mit einem authentischen NVIDIA H100-Grafikprozessor interagiert, die Firmware nicht manipuliert wurde und dass die GPU-Firmware erwartungsgemäß aktualisiert wurde.

Sicherheit für Grafikprozessoren der richtigen Größe

Schützen Sie Ihre gesamte KI-Workload, die auf einem einzelnen H100-Grafikprozessor oder auf mehreren H100-Grafikprozessoren innerhalb eines Knotens ausgeführt wird. Sie können auch KI-Workloads, die auf einzelnen MIG-Instanzen ausgeführt werden, physisch isolieren und sichern. Das ermöglicht vertrauliches Computing für mehrere Mandanten auf einer einzigen H100-GPU und optimiert die Auslastung der Infrastruktur.

Keine Änderung des Anwendungscodes

Nutzen Sie alle Vorteile des vertraulichen Computings, ohne dass in den meisten Fällen Codeänderungen für Ihre GPU-beschleunigten Workloads erforderlich sind. Verwenden Sie die GPU-optimierte Software von NVIDIA, um End-to-End-KI-Workloads auf H100-GPUs zu beschleunigen und dabei Sicherheit, Datenschutz und die Einhaltung gesetzlicher Vorschriften zu gewährleisten.

Neue Möglichkeiten für KI-Sicherheit erschließen

Schutz geistigen KI-Eigentums

Schutz geistigen KI-Eigentums

NVIDIA Confidential Computing bewahrt die Vertraulichkeit und Integrität von KI-Modellen und Algorithmen, die auf H100-GPUs bereitgestellt werden. Unabhängige Softwareanbieter (ISVs) können jetzt ihre proprietären KI-Modelle in großem Umfang auf gemeinsamer oder Remote-Infrastruktur verteilen und bereitstellen, einschließlich Drittanbieter- oder Colocation-Rechenzentren, Edge-Infrastruktur und öffentlicher Cloud. Dadurch können ISVs in Branchen wie Einzelhandel und Fertigung ihre KI-Lösungen umfassend zugänglich machen und gleichzeitig ihr geistiges Eigentum vor unbefugtem Zugriff oder Manipulation schützen, sogar vor Personen mit physischem Zugriff auf die Bereitstellungsinfrastruktur.

Sicherheit für KI-Training und Inferenz

Das Trainieren von KI-Modellen auf Konvergenz ist ein rechenintensiver, komplexer und iterativer Prozess, an dem extrem große Datenmengen beteiligt sind. Nach dem Trainieren werden diese KI-Modelle zur Interferenz und Prognoseerstellung anhand bereitgestellter Daten in Unternehmensanwendungen integriert. Es gibt eine wachsende Anzahl von Branchen, beispielsweise Finanzdienstleistungen, Gesundheitswesen und öffentlicher Sektor, in denen die Daten, die sowohl für KI-Modelltraining als auch für Inferenz verwendet werden, besonders sensibel sind und/oder gesetzlichen Vorschriften unterliegen, wie etwa personenbezogene Daten. Mit NVIDIA Confidential Computing können Unternehmen während des KI-Trainings und der Inferenz die Vertraulichkeit der Daten sicherstellen – sei es vor Ort, in der Cloud oder am Edge.

Sicherheit beim KI-Training
Sichere Zusammenarbeit zwischen mehreren Parteien

Sichere Zusammenarbeit zwischen mehreren Parteien

Das Erstellen und Verbessern von KI-Modellen für Anwendungsfälle wie Betrugserkennung, medizinische Bildgebung und Medikamentenentwicklung erfordert vielfältige, sorgfältig gekennzeichnete Datensätze für das Trainieren neuronaler Netze. Dies erfordert die Zusammenarbeit mehrerer Beteiligter, ohne dass es zu einer Beeinträchtigung der Vertraulichkeit und Integrität der Datenquellen kommt. NVIDIA Confidential Computing ermöglicht sicheres Multi-Party-Computing, sodass Unternehmen zusammenarbeiten können, um KI-Modelle zu trainieren oder zu evaluieren und sicherzustellen, dass sowohl Daten als auch KI-Modelle auf allen beteiligten Sites vor unbefugtem Zugriff, externen Angriffen und Bedrohungen durch Insider geschützt sind.

Vorläufige Spezifikationen, Änderungen möglich

Tiefer Einblick in die NVIDIA Hopper-Architektur