NVIDIA는 AI가 개인 정보 보호 및 데이터 보호 규정을 준수하고, 안전하고 투명하며 책임감 있는 방식으로 작동하고, 편향과 차별을 배제해야 한다고 믿습니다. NVIDIA는 백악관의 자발적 약속(White House Voluntary Commitments) 및 기타 글로벌 AI 안전 이니셔티브에 따라 안전하고 신뢰할 수 있는 AI를 만들기 위해 최선을 다하고 있습니다.
AI는 개인 정보 보호 법률 및 규정을 준수해야 하며 개인 데이터 및 개인 정보 보호에 대한 사회적 규범을 충족해야 합니다.
AI 시스템이 의도한 대로 작동하도록 보장하고 의도하지 않은 피해 및 위협을 방지합니다.
AI 기술을 사람들이 이해할 수 있게 만듭니다. AI 시스템이 어떻게 특정 결과물을 산출했는지 비기술적인 언어로 설명합니다.
AI 시스템의 편향을 최소화하고 모든 그룹이 AI의 이점을 누릴 수 있도록 동등한 기회를 제공합니다.
신뢰할 수 있는 AI 원칙은 NVIDIA의 엔드 투 엔드 개발의 기초이며 파트너, 고객 및 개발자가 최선을 다할 수 있도록 지원하는 기술적 우수성에 있어 필수적입니다. NVIDIA는 생성형 AI 서비스를 위한 데이터 팩토리, 컴퓨터 비전을 위한 편견 없는 데이터세트를 큐레이팅 및 검증하는 도구, 거대 언어 모델을 위한 자연어 처리 데이터를 확장하기 위한 라이브러리, 컨피덴셜 컴퓨팅과 같은 획기적인 보안 기능, 인간 피드백과 모델 정렬을 위한 오픈 소스 기술과 같은 혁신을 구축하고 있습니다.
투명한 AI 문서 개발을 지원하기 위해 NVIDIA가 제공한 무료 오픈 소스 템플릿을 확인하려면 NVIDIA/Trustworthy-AI GitHub 리포지토리를 방문하세요. NVIDIA는 이러한 확장된 리소스를 통해 고객과 파트너가 책임감 있게 AI를 개발하고 AI 공급망 전반에 걸쳐 투명성과 책임성을 향상시키는 것을 더 쉽게 지원하고 있습니다.
NVIDIA의 AI 연구는 인간의 역량을 강화하고 복잡한 문제를 해결하며 산업 전반의 효율성을 개선할 수 있는 알고리즘과 시스템을 개발하는 데 중점을 두고 있습니다. NVIDIA는 모든 연구 관행 및 방법론에서 개인 정보 보호, 투명성, 차별 금지, 안전 및 보안의 기본 원칙을 유지하기 위해 노력합니다.
AI 규제와 신뢰성을 위한 길을 닦는 전문가와 정부 리더들의 이야기를 들어보세요. 기업들이 자체적인 AI 프로젝트를 추진할 때 마주할 수 있는 잠재적 장애물을 파악하고 해결할 수 있도록 선별된 'NVIDIA GTC 신뢰할 수 있는 AI 세션을 탐색해 보세요. 여기에는 최근 GTC DC에서 진행된 AI 안전의 기초 개념에 관한 심도 있는 논의도 포함되어 있습니다.