值得信賴的 AI

我們堅信 AI 應嚴守隱私權與資料保護規範、以安全可靠的方式營運、以透明且負責任的方式運作,並避免不當的偏見與歧視。NVIDIA 致力於提供安全且值得信賴的 AI,並遵守白宮自發性承諾和其他相關全球 AI 安全倡議之規範。

NVIDIA 值得信賴的 AI 準則

隱私性

AI 應遵守隱私權法律和法規,並符合個人資料和資訊隱私權的社會規範。

安全與保障

確保 AI 系統依預期執行,防範意外傷害和惡意威脅。

公開透明度

協助大眾理解 AI 技術。以淺顯易懂的方式說明 AI 系統如何輸出成果。

公平性

我們最大程度的減少 AI 系統中的偏見,讓所有群體都有平等的機會受益於 AI。

方法與技術

值得信賴的 AI 準則,是我們端到端開發的基石,也是成就卓越技術的必要條件。唯有如此,合作夥伴、客戶與開發者才能盡展所長。 我們正致力於建構生成式 AI 服務與資料工廠、開發用於整理和驗證無偏見電腦視覺資料集的工具、建立用於擴展大型語言模型自然語言處理資料的函式庫、推出突破性的安全功能 (例如機密運算),以及推動基於人類回饋的模型與開放原始碼技術保持一致。

若要查看 NVIDIA 為支援開發透明化 AI 文件開發而提供的免費開放原始碼範本,請造訪 NVIDIA/Trustworthy-AI GitHub 儲存庫。透過這些豐富的資源,NVIDIA 讓客戶與合作夥伴更輕鬆地以負責任的方式開發 AI,並進一步提升整個 AI 供應鏈的透明度與問責制。

NVIDIA 值得信賴的 AI 解決方案

Model Card Generator

AI model card 是確保 AI 研發過程可靠、證明合規性以及促進透明度的業界標準。透過建立自動化 model card,大幅減少人工作業,提升效率。

用於 AI 安全的 NVIDIA Halos

NVIDIA Halos 是完整堆疊的安全架構,整合了架構、AI 模型、晶片、軟體、工具與服務,確保自駕車與機器人等物理 AI 的安全開發。

NeMo Guardrails

NVIDIA NeMo Guardrails 有助於確保採用大型語言模型 (LLM) 的智慧應用程式準確、適當、切題且安全。

合作打造值得信賴的 AI 技術

Te Hiku Media

NVIDIA 新創鏈結計畫成員 Te Hiku Media 為毛利語和紐西蘭英文建立高度準確的雙語語音辨識系統,且開發人員和擁有者本身就來自該語言社群。

Google DeepMind 的 Synth ID

NVIDIA 是首家將數位浮水印直接嵌入 AI 生成之音訊、影像、文字與影片內容的外部使用者,能在不影響影片品質的前提下,有效防止錯誤資訊傳播並避免來源誤導。

SIGNS

NVIDIA 與美國聾童協會 (American Society for Deaf Children)、Hello Monday/DEPT 以及羅徹斯特理工學院 (Rochester Institute of Technology) 合作,透過 SIGNS 平台教學並建立一個可公開使用的無障礙技術資料集。

值得信賴的 AI:最新消息

檢視所有值得信賴的 AI 案例

致力於研究

我們的 AI 研究著重於開發演算法和系統,以強化人類能力、解決複雜難題,並提高各產業的效率。我們致力於在所有的研究實踐和方法中,秉持隱私、透明、反歧視以及安全可靠等指導原則。

精選出版物與論文:

在 GTC AI 大會上探索更多精彩內容

聆聽專家與政府領導者為建立 AI 法規與可信度所提出的見解。探索 NVIDIA GTC 可信賴 AI 系列場次,旨在協助企業辨識並處理開發 AI 時可能面臨的挑戰,包括近期在 GTC DC 舉行的 《AI 安全基礎概念》座談討論。