IA Confiable

Creemos que la IA debe respetar las regulaciones de privacidad y protección de datos, operar de manera segura, funcionar de manera transparente y responsable, y evitar prejuicios y discriminación no deseados. Estamos comprometidos con una IA segura y confiable, en línea con los Compromisos Voluntarios de la Casa Blanca y otras iniciativas globales de seguridad de la IA.

Nuestros Principios Rectores para una IA Confiable

Privacidad

La IA debe cumplir con las leyes y regulaciones de privacidad y cumplir con las normas sociales sobre privacidad de la información y los datos personales.

Seguridad y Proteccion

Asegúrese de que los sistemas de IA funcionen según lo previsto y evite daños no deseados y amenazas maliciosas.

Transparencia

Hacer que la tecnología de IA sea comprensible para las personas. Explique, en un lenguaje no técnico, cómo llegó un sistema de IA a su resultado.

No Discriminación

Minimizar el sesgo en nuestros sistemas de IA y brindar a todos los grupos la misma oportunidad de beneficiarse de la IA.

Métodos y Tecnologías

Los principios de la IA confiable son fundamentales para nuestro desarrollo integral y esenciales para la excelencia técnica que permite a los socios, clientes y desarrolladores hacer su mejor trabajo. Estamos construyendo fábricas de datos para servicios de IA generativa, herramientas para seleccionar y validar conjuntos de datos imparciales para visión por computadora, bibliotecas para escalar datos de procesamiento de lenguaje natural para grandes modelos de lenguaje, características de seguridad innovadoras como computación confidencial e innovaciones como técnicas de código abierto para la alineación de modelos con retroalimentación humana.

Nuestras Soluciones de IA Confiable

Tarjeta Modelo++

Una tarjeta de modelo de IA es un documento que proporciona información detallada sobre cómo funcionan los modelos de machine learning, fomentando la transparencia y la confiabilidad.

NVIDIA Omniverse Replicator

NVIDIA está reduciendo los sesgos no deseados y protegiendo la privacidad generando diversos conjuntos de datos sintéticos para replicar casos de uso del mundo real en vehículos autónomos, inspección industrial y simulación de robótica.

NeMo Guardrails

NVIDIA NeMo Guardrails ayuda a garantizar que las aplicaciones inteligentes impulsadas por grandes modelos de lenguaje (LLM) sean precisas, apropiadas, específicas y seguras.

Asociación Para Una Tecnología de IA Confiable

Te Hiku Media

Te Hiku Media, miembro de NVIDIA Inception, creó un sistema de reconocimiento de voz bilingüe de alta precisión para el idioma maorí y el inglés neozelandés, creado y propiedad de su propia comunidad lingüística.

Getty Images

La IA generativa de Getty Images se entrena con NVIDIA Picasso con datos responsables, limpios y con licencia completa, lo que abre innumerables oportunidades para iniciativas creativas.

Adobe Firefly

Utilizando GPU NVIDIA, Adobe Firefly es la familia de modelos creativos de IA generativa de Adobe, diseñados para generar contenido seguro para uso comercial y al mismo tiempo mejorar significativamente los flujos de trabajo creativos.

IA Confiable en las Noticias

Ver Todas las Historias de IA Confiable

Un Compromiso con la Investigación

Nuestra investigación en IA se centra en el desarrollo de algoritmos y sistemas que puedan aumentar las capacidades humanas, resolver problemas complejos y mejorar la eficiencia en todas las industrias. Trabajamos para mantener nuestros principios rectores de privacidad, transparencia, no discriminación y seguridad en todas las prácticas y metodologías de investigación.

Publicaciones y artículos destacados:

Descubra Más en GTC

Únase a los expertos y líderes gubernamentales que allanan el camino para la regulación y la confiabilidad de la IA en NVIDIA GTC. Explore sesiones de IA confiable seleccionadas para ayudar a las empresas a identificar y abordar obstáculos potenciales para desarrollar sus propias iniciativas.