NVIDIA Confidential Computing

Sécurisez vos données et vos modèles d’IA en cours d’utilisation.

Optimisez la confidentialité et l’intégrité des charges de travail d’IA en cours d’utilisation

Les données, les applications et les modèles d’IA que vous utilisez sont vulnérables aux attaques externes et aux menaces internes, qu’ils soient déployés sur site, dans le Cloud ou à l’Edge. NVIDIA Confidential Computing est une fonctionnalité de sécurité révolutionnaire, exclusive à l’architecture NVIDIA Hopper, qui atténue ces menaces tout en permettant aux utilisateurs d’accéder aux capacités d’accélération sans précédent des GPU NVIDIA H100 Tensor Core pour les charges de travail d’IA. Protégez les données les plus sensibles et les modèles d’IA propriétaires de tout accès non autorisé grâce à une sécurité matérielle renforcée.

Découvrez les avantages de NVIDIA Confidential Computing

Sécurité et isolation basées sur le matériel

Bénéficiez d’une isolation totale des machines virtuelles (VM) sur site, dans le Cloud ou à l’Edge. Les transferts de données entre le CPU et le GPU H100 sont cryptés et décryptés avec une fréquence de ligne PCIe. Un environnement d’exécution de confiance à isolation physique (TEE) est créé avec des pare-feux matériels intégrés qui sécurisent l’intégralité de la charge de travail sur le GPU H100.

Protection contre les accès non autorisés

Protégez la confidentialité et renforcez l’intégrité de vos données et charges de travail d’IA en cours d’utilisation Les entités non autorisées, incluant l’hyperviseur, le système d’exploitation hôte, le fournisseur de Cloud et toute personne disposant d’un accès physique à l’infrastructure, ne peuvent pas visualiser ou modifier les données et les applications d’IA en cours d’exécution, ce qui contribue à protéger les propriétés intellectuelles et les données sensibles des clients.

Vérifiabilité optimisée grâce à l’attestation de l’appareil   

Assurez-vous que seuls les utilisateurs finaux autorisés peuvent transférer des données et du code pour une exécution via le TEE du GPU H100. L’attestation de l’appareil vérifie en outre que l’utilisateur communique avec un GPU NVIDIA H100 authentique, mais aussi que le firmware de l’appareil n’a pas été altéré et que le firmware du GPU a été mis à jour comme prévu.

Sécurité renforcée avec des GPU parfaitement calibrés

Protégez l’intégralité de votre charge de travail d’IA sur un seul GPU H100 ou de multiples GPU H100 au sein d’un nœud. Vous pouvez également isoler physiquement et sécuriser les charges de travail d’IA exécutées sur des instances MIG individuelles, ce qui permet de garantir la confidentialité du calcul pour de multiples clients sur un seul GPU H100 et d’optimiser l’utilisation de l’infrastructure.

Aucun changement de code d’application

Exploitez tous les avantages de la technologie NVIDIA Confidential Computing, sans effectuer le moindre changement de code pour l’accélération GPU de vos charges de travail. Utilisez l’environnement logiciel optimisé par les GPU de NVIDIA pour accélérer vos charges de travail d’IA de bout en bout sur les GPU H100 tout en préservant la sécurité, la confidentialité et la conformité réglementaire.

Des possibilités inédites pour la sécurisation de l’IA

Protégez vos propriétés intellectuelles

Protégez vos propriétés intellectuelles

NVIDIA Confidential Computing préserve la confidentialité et l’intégrité des modèles et des algorithmes d’IA qui sont déployés sur les GPU H100. Les éditeurs de logiciels indépendants (ISV) peuvent désormais distribuer et déployer leurs modèles d’IA propriétaires en toute évolutivité sur une infrastructure partagée ou distante, y compris sur des Data Centers tiers ou en colocation, des infrastructures à l’Edge ou des Clouds publics. Cela permet par exemple aux entreprises spécialisées dans la vente au détail ou la production industrielle de rendre leurs solutions d’IA plus largement accessibles tout en protégeant leurs propriétés intellectuelles (IP) contre les modifications ou les accès non autorisés, même auprès d’une personne disposant d’un accès physique à l’infrastructure de déploiement.

Sécurité accrue pour l’entraînement et l’inférence des modèles d’IA

L’entraînement convergé des modèles d’IA est un processus de calcul intensif, complexe et itératif qui nécessite de travailler avec d’importants volumes de données. Une fois entraînés, ces modèles d’IA sont intégrés aux applications d’entreprise pour réaliser des inférences ou faire des prédictions vis-à-vis des nouvelles données auxquelles ils sont présentés. Dans un nombre croissant de domaines industriels comme la finance, la santé et le secteur public, les données telles que les informations d’identification personnelle (PII), utilisées à la fois pour l’entraînement et l’inférence des modèles d’IA, sont sensibles et/ou réglementées. Grâce à NVIDIA Confidential Computing, les entreprises peuvent garantir la confidentialité des données pendant les procédures d’entraînement et d’inférence basées sur l’IA, que ce soit sur site, dans le Cloud ou à l’Edge.

Sécurité pour l’entraînement des modèles d’IA
Collaboration multipartite parfaitement sécurisée

Collaboration multipartite parfaitement sécurisée

La création et l’optimisation de modèles d’IA pour des cas d’utilisation tels que la détection des fraudes, l’imagerie médicale et le développement de médicaments nécessitent des jeux de données soigneusement étiquetés pour l’entraînement des réseaux de neurones. Ce processus exige une collaboration étroite entre plusieurs parties sans compromettre la confidentialité et l’intégrité des sources de données. NVIDIA Confidential Computing permet de mettre en œuvre un calcul multipartite entièrement sécurisé, ce qui permet aux entreprises de collaborer pour entraîner ou évaluer des modèles d’IA tout en garantissant que les données et les modèles d’IA sont protégés contre les accès non autorisés, les attaques externes et les menaces internes sur chaque site participant.

Spécifications préliminaires susceptibles d’être modifiées

Plongez au cœur de l’architecture NVIDIA Hopper