Proteger la confidencialidad y la integridad de las cargas de trabajo de IA en uso

Los datos, los modelos de IA y las aplicaciones en uso son vulnerables a ataques externos y amenazas internas, ya estén implementados en las instalaciones, en la nube o en el perímetro. La computación confidencial de NVIDIA, una innovadora característica de seguridad introducida en la arquitectura NVIDIA Hopper, mitiga estas amenazas al tiempo que permite a los usuarios acceder a la aceleración sin precedentes de las GPU NVIDIA H100 Tensor Core para cargas de trabajo de IA. Protege los datos confidenciales y los modelos de IA propios del acceso no autorizado mediante una sólida seguridad basada en hardware.

Las ventajas de la computación confidencial de NVIDIA

Aislamiento y seguridad basados en hardware

Logra el total aislamiento de las máquinas virtuales (VM) en las instalaciones, en la nube o en el perímetro. Las transferencias de datos entre la CPU y la GPU H100 se cifran y descifran con la velocidad de línea de PCIe. Se crea un entorno de ejecución de confianza (TEE) físicamente aislado con firewalls de hardware integrados que protege toda la carga de trabajo en la GPU H100.

Protección frente a accesos no autorizados

Protege la confidencialidad y la integridad de los datos y las cargas de trabajo de IA en uso. Las entidades no autorizadas, como el hipervisor, el SO del host, el proveedor de la nube y cualquier persona con acceso físico a la infraestructura, no pueden ver ni modificar la aplicación ni los datos de IA durante la ejecución, lo que protege los datos confidenciales del cliente y la propiedad intelectual.

Verificabilidad con la autenticación    del dispositivo

Asegúrate de que solo los usuarios finales autorizados puedan colocar datos y código de ejecución dentro del TEE del H100. Además, la autenticación del dispositivo verifica que el usuario esté hablando con una GPU NVIDIA H100 auténtica, que el firmware no se haya manipulado y que el firmware de la GPU se haya actualizado como corresponde.

Seguridad para GPU de tamaños adecuados

Protege toda la carga de trabajo de IA que se ejecuta en una sola GPU H100 o varias GPU H100 dentro de un nodo. También puedes aislar y proteger físicamente las cargas de trabajo de IA que se ejecutan en instancias MIG individuales, lo que habilita la informática confidencial para varios inquilinos en una sola GPU H100 y optimiza el uso de la infraestructura.

No se ha cambiado el código de la aplicación

Aprovecha todas las ventajas de la informática confidencial sin necesidad de cambios de código en las cargas de trabajo aceleradas por GPU en la mayoría de los casos. Utiliza el software optimizado para GPU de NVIDIA para acelerar las cargas de trabajo de IA de extremo a extremo en las GPU H100 manteniendo al mismo tiempo la seguridad, la privacidad y el cumplimiento normativo.

Descubre nuevas posibilidades de seguridad de IA

Proteger la propiedad intelectual de la IA

Proteger la propiedad intelectual de la IA

La informática confidencial de NVIDIA preserva la confidencialidad y la integridad de los modelos y los algoritmos de IA implementados en GPU H100. Los proveedores de software independientes (ISV) ahora pueden distribuir e implementar sus propios modelos de IA a escala en infraestructura compartida o remota, como centros de datos de terceros o coubicación, infraestructura perimetral y nube pública. Esto permite a los ISV de sectores como la venta al por menor y la fabricación acceder a sus soluciones de IA al mismo tiempo que protegen su propiedad intelectual (PI) del acceso o la modificación no autorizados, incluso de alguien con acceso físico a la infraestructura de implementación.

Seguridad para el entrenamiento e inferencia de IA

Entrenar modelos de IA para la convergencia es un proceso computacionalmente intensivo, complejo e iterativo que requiere utilizar volúmenes masivos de datos. Una vez entrenados, estos modelos de IA se integran dentro de aplicaciones empresariales para inferir o hacer previsiones sobre los nuevos datos con los que se presentan. Cada vez son más los sectores, como el financiero, el sanitario y el público, donde los datos utilizados tanto para el entrenamiento de modelos de IA como para la inferencia son confidenciales o están regulados, como la información de identificación personal (IIP). Con la computación confidencial de NVIDIA, las empresas pueden garantizar la confidencialidad de los datos durante el entrenamiento y la inferencia de IA, ya sea en instalaciones, en la nube o en el perímetro.

Seguridad del entrenamiento de IA
Colaboración segura entre varias partes

Colaboración segura entre varias partes

La creación y la mejora de modelos de IA para casos de uso como la detección de fraudes, la imaginería médica y el desarrollo de fármacos requiere conjuntos de datos diversos y cuidadosamente etiquetados para entrenar redes neuronales. Esto requiere colaboración entre varias partes sin que afecte a la confidencialidad y la integridad de los orígenes de datos. La computación confidencial de NVIDIA desbloquea la computación multipartita segura, lo que permite a las organizaciones colaborar para entrenar o evaluar modelos de IA y asegurar que tanto los datos como estos modelos estén protegidos frente al acceso no autorizado, los ataques externos y las amenazas internas en cada sitio participante.

Las especificaciones preliminares pueden estar sujetas a cambios

Sumérgete en la arquitectura NVIDIA Hopper