IA Confiável

Acreditamos que a IA deve respeitar os regulamentos de privacidade e proteção de dados, operar de forma segura e protegida, funcionar de forma transparente e responsável e evitar preconceitos e discriminação indesejados. Estamos comprometidos com uma IA segura e confiável, em linha com os Compromissos Voluntários da Casa Branca e outras iniciativas globais de segurança de IA.

Nossos Princípios Orientadores para uma IA Confiável

Privacidade

A IA deve cumprir as leis e regulamentos de privacidade e cumprir as normas sociais relativas à privacidade de dados pessoais e informações.

Segurança e Proteção

Garanta que os sistemas de IA funcionem conforme esperado e evite danos não intencionais e ameaças maliciosas.

Transparência

Torne a tecnologia de IA compreensível para as pessoas. Explique, em linguagem não técnica, como um sistema de IA chegou ao seu resultado.

Não Discriminação

Minimizar o preconceito nos nossos sistemas de IA e dar a todos os grupos oportunidades iguais de beneficiar da IA.

Métodos e Tecnologias

Princípios confiáveis de IA são fundamentais para nosso desenvolvimento de ponta a ponta e essenciais para a excelência técnica que permite que parceiros, clientes e desenvolvedores façam seu melhor trabalho. Estamos construindo fábricas de dados para serviços de IA generativa, ferramentas para selecionar e validar conjuntos de dados imparciais para visão computacional, bibliotecas para dimensionar dados de processamento de linguagem natural para grandes modelos de linguagem, recursos de segurança inovadores como computação confidencial e inovações como técnicas de código aberto para alinhamento de modelos com feedback humano.

Nossas soluções de IA Confiável

Cartão Modelo++

Um cartão de modelo de IA é um documento que fornece informações detalhadas sobre como funcionam os modelos de machine learning, incentivando a transparência e a confiabilidade.

NVIDIA Omniverse Replicator

A NVIDIA está reduzindo preconceitos indesejados e protegendo a privacidade ao gerar diversos conjuntos de dados sintéticos para replicar casos de uso do mundo real em veículos autônomos, inspeção industrial e simulação robótica.

NeMo Guardrails

NVIDIA NeMo Guardrails ajuda a garantir que aplicações inteligentes com tecnologia de grandes modelos de linguagem (LLM) sejam precisos, apropriados, relevantes e seguros.

Parceria para Tecnologia de IA confiável

Te Hiku Media

O membro do NVIDIA Inception, Te Hiku Media, criou um sistema de reconhecimento de fala bilíngue altamente preciso para o idioma maori e o inglês da Nova Zelândia, desenvolvido e de propriedade de sua própria comunidade linguística.

Getty Images

A IA generativa da Getty Images é treinada com o NVIDIA Picasso em dados responsáveis, limpos e totalmente licenciados, abrindo inúmeras oportunidades para empreendimentos criativos.

Adobe Firefly

Usando GPUs NVIDIA, o Adobe Firefly é a família de modelos criativos de IA generativa da Adobe, projetados para gerar conteúdo seguro para uso comercial e, ao mesmo tempo, melhorar significativamente os workflows criativos.

IA Confiável nas Notícias

Veja Todas as Histórias de IA Confiáveis

Um Compromisso com a Pesquisa

Nossa pesquisa em IA está focada no desenvolvimento de algoritmos e sistemas que possam aumentar as capacidades humanas, resolver problemas complexos e melhorar a eficiência em todos os setores. Trabalhamos para manter nossos princípios orientadores de privacidade, transparência, não discriminação e segurança e proteção em todas as práticas e metodologias de pesquisa.

Publicações e artigos em destaque:

Descubra Mais no GTC

Junte-se aos especialistas e líderes governamentais que estão abrindo caminho para a regulamentação e a confiabilidade da IA no NVIDIA GTC. Explore sessões sobre IA confiável selecionadas para ajudar as empresas a identificar e abordar possíveis obstáculos ao desenvolvimento de suas próprias iniciativas.