什麽是負責任的人工智能?
對“負責任的人工智能”、“可信的人工智能”(由歐盟委員會使用)或“倫理人工智能”等術語的使用增加了定義上的挑戰。
這些不同的術語通常被理解爲指那些能够解决其使用相關問題和擔憂的人工智能系統或應用。
“負責任的人工智能”的定義包括五個典型特性,這些特性涉及人工智能模型的設計和部署方式:
1. 公平性:指確保人工智能不會做出歧視性决策或建議的過程和實踐。
2. 魯棒性:確保人工智能不易受到攻擊或影響其性能的能力。
3. 透明度:指共享在開發過程中收集的信息,這些信息描述了人工智能系統的設計和構建方式,以及爲檢查其性能和其他特性所進行的測試。
4. 可解釋性:人工智能系統向用戶和其他相關方提供解釋的能力,解釋是什麽導致了人工智能模型産生某些輸出。這對于在用戶、審計人員和監管者中産生對人工智能的信任至關重要。
5. 隱私:確保人工智能的開發和使用方式能够保護用戶的個人信息。
Comments