歐盟率先發布人工智能道德準則
歐盟率先發布人工智能道德準則
近日,歐盟發布了一份人工智能道德準則,該準則的提出旨在對人工智能系統的道德框架進行研究、反思和討論,促進“值得信賴”的人工智能發展。
人工智能道德準則報告由三部分組成。第一部分為可信賴AI實現的基本條件;第二部分為可信賴AI實現的四項倫理準則;第三部分為可信賴AI實現的七個關鍵要素。
可信賴AI實現的三大基本條件
人工智能道德準則的目標是推進可信賴AI的發展。可信賴AI在系統的全生命周期中需要滿足三個條件:合法、符合倫理、技術穩健。所謂合法,是指AI系統應該遵守所有適用的法律法規;所謂符合倫理,是指AI系統應該遵守倫理準則和價值觀;所謂技術穩健,是指不管從技術還是社會的角度來看,盡管開發或使用AI系統的本意是良好的,但是AI系統也可能會造成無意的傷害,所以系統中的每個組件都應該滿足可信賴AI的要求。理想情況下,上述三個條件應該在操作中協調發展,一旦出現互為排斥的關系,社會應該通過努力使其保持一致。
全球范圍內的AI系統不能“無法無天”地運作,國際層面、歐洲的一些具有法律約束力的規則已經適用于當今AI系統的開發、部署和使用。例如,根據國際人權法律、歐盟條約和歐盟憲章,專家組提出了AI系統應該涵蓋的基本權利,其中有些權利在歐盟是法律強制執行的,因此保證這些權利也是法律的基本要求,包括:尊重人的尊嚴(Respect for human dignity),個人自由(Freedom of the individual),尊重民主、正義和法律規范(Respect for democracy, justice and the rule of law),平等、不歧視和團結(Equality, non-discrimination and solidarity),公民權利(Citizens’rights)。法律的制定并不是總能跟上技術發展的速度。因此值得信賴的AI不僅要遵守法律,也應符合倫理規范。另外,即便有了道德的限制,無論是個人還是社會都不能保證AI系統不會造成無意識的傷害,因此,AI系統應該確保在其應用領域和全生命周期內穩健運行。綜上所述,AI系統是以合法、符合道德、技術穩健為基本條件的。
滿足四項道德準則
“可信賴AI”需要滿足四項道德準則。
準則一:尊重人的自主性。與AI互動的人類必須能夠充分堅持自己的決定,并參與民主進程。AI系統不應該不合理地從屬、脅迫、欺騙、操縱人類。相反,AI系統的設計應該以增強、補充人類的認知、社會和文化技能為目的。人類與AI系統之間的功能分配應遵循以人為中心的設計原則,這意味著在AI系統的工作過程中要確保人類扮演監督其工作的角色。AI系統也可能從根本上改變工作領域,但是它應該在工作環境中支持人類,并致力于創造有意義的工作。
準則二:預防傷害。AI系統不應該造成、加劇傷害,或以其他任何方式對人類產生不利的影響。AI系統及其運行的環境必須是安全可靠的。因此AI系統技術上必須是強健的,而且要確保AI技術不會被惡意使用。尤其是弱勢群體在使用AI系統時,應該受到更多關注。AI系統在開發、部署和使用過程中,均應關注弱勢群體。另外,還需注意AI系統可能導致或加劇由于權力或信息不對稱造成的不利影響。最后還需注意可能會惡意使用該技術的人和可能會造成不良影響的應用場景。
準則三:公平。AI系統的開發、部署和使用必須是公平的。雖然大眾對公平性可能會有不同的解讀,但是應當確保個人和組織不會受到不公平的偏見、歧視等。如果AI系統可以避免不公平的偏見,就可以增加社會公平性。公平還意味著AI從業者使用AI時平衡“手段”和“目標”之間的比例原則,為此,AI系統做出的決策以及做決策的過程應該是可提出質疑的并且有補救機制的。
準則四:可解釋性。可解釋性對構建用戶對AI系統的信任是非常關鍵的。也就是說整個決策的過程、輸入和輸出的關系都應該是可解釋的。但目前的人工智能算法和模型都是以黑盒(black box)的形式運行的。(黑盒模型是指諸如神經網絡、梯度增強模型或復雜的集成模型。此類的模型通常具有很高的準確性。然而,這些模型的內部工作機制卻難以理解,也無法估計每個特征對模型預測結果的重要性,更不能理解不同特征之間的相互作用關系。)在這種情況下,可能需要其他可解釋性措施,例如可追溯性、可審計性。
可信賴AI系統應滿足7個關鍵要素
專家組對實現可信賴的AI系統提出了7個關鍵要素。分別是:人工智能自治的治理(人的監督)、技術強大性和安全性、隱私和數據治理、透明度、多樣性、非歧視性和公平性、社會和環境福祉以及問責。
關鍵要素一:人工智能自治的治理(人的監督),即基于人類自治原則,AI系統應該支持人類的自治和決策。這要求AI系統既可以幫助使用者推動社會的民主、繁榮、公平,又能夠促進基本權利的行使,同時允許人類監督。AI應與其他科技一樣,可以造福于人,如幫助人類追蹤個人數據,增加教育的可及性從而保障他們受教育的權利。但是,考慮到AI系統的使用范圍和能力,它們也會對基本權利產生負面影響。因此,應建立外部反饋機制以接收AI系統侵犯基本權利的信息。人類能動性是指,AI用戶應能夠基于AI系統自主作出決策。并且AI系統應賦予他們知識和工具,以便在人類滿意的程度上理解并與AI系統互動,并在可能的情況下,合理地自我評估。人工智能系統應支持個人根據他們的目標做出更好、更明智的選擇。人工智能系統有時可能通過難以被發現的機制來塑造和影響人類行為,因為它們可能利用潛意識過程,包括各種形式的不公平操縱、欺騙等威脅到人類的自主權。用戶自治的總體原則必須是系統功能的核心。關鍵在于,當決策對用戶產生法律效果或對用戶產生重大影響時,用戶權利不受基于自動化處理的決策約束。人類監督是指,人為監督有助于確保AI系統不會破壞人的自主權或造成其他不利影響。監督可以通過治理機制來實現,例如human-in-the-loop (HITL), human-on-the-loop (HOTL), or human-in-command (HIC)方法。HITL指的是在系統的每個決策周期內人為干預的能力。HOTL指的是在系統設計周期內監控系統運行的人為干預的能力。HIC指的是監督AI系統整體活動的能力(包括其更廣泛的經濟、社會、法律和道德影響)以及決定何時以及如何在任何特定情況下使用該系統的能力。此外,必須確保公共執法者有能力根據其任務規定進行監督。根據AI系統的應用領域和潛在風險,可能需要不同程度的監督機制來支持其他安全和控制措施。在其他條件相同的情況下,如果人類對AI系統進行的監督越少,那么需要進行的測試就越廣泛、管理就越嚴格。
關鍵要素二:技術強大性和安全性。技術強大性要求AI系統的開發采用可靠的預防性措施防范風險,使其能夠按預期運行,同時盡量減少無意和意外傷害,并防止不可接受的傷害。這一要求也適用于AI操作環境發生潛在變化的情況,或以對抗方式與系統交互的其他智能體(人類和人工)出現的情況。此外,還應確保人類的身心健康。
與所有軟件系統一樣,AI系統應該受到保護,免受被攻擊,例如黑客攻擊。攻擊可能針對數據(數據中毒)、模型(模型泄漏)或底層基礎設施(包括軟件和硬件)。如果AI系統受到攻擊,例如在對抗性攻擊中,數據和系統行為被改變,導致系統作出不同的決定,或者導致它完全關閉。系統和數據也可能因惡意或暴露于意外情形而被破壞。安全程序不足也可能導致錯誤的決策甚至是物理性傷害。為了使AI系統被認為是安全的,應該考慮人工智能系統中潛在的非預期應用和惡意行為者濫用系統。
AI系統應該有一定的安全措施,在出現問題時,使用可以啟用后備計劃。這可能意味著AI系統從統計程序切換到規則程序,或者它們在繼續行動之前詢問人類再進行操作,且必須確保系統能夠在不傷害生物或環境的情況下完成預期的工作,最大限度地減少意外產生。此外,應建立程序對AI系統所在的應用領域潛在風險進行解釋和評估。如果可以預測開發過程或系統本身會帶來較高風險,那么主動開發和測試安全措施則至關重要。
此外,準確性與AI系統作出正確判斷的能力有關。明確且完善的開發和評估程序可以支持、緩解和糾正不準確預測帶來的意外風險。當偶然的不準確預測無法避免時,很重要的一點是系統能夠指出這些錯誤。在AI系統直接影響人類生活的情況下,高準確性非常必要。另外,至關重要的是,AI系統的結果是可靠的,也是可重復的。可靠的AI系統可以在一系列輸入和各種情況下正常工作,這需要仔細檢查AI系統并防止意外傷害。可重復性指人工智能實驗在相同條件下重復時能否表現出相同的行為,這使科學家和政策制定者能夠準確描述AI系統的作用。
關鍵要素三:隱私和數據治理,即根據AI系統應用的領域、其訪問協議及處理數據的能力進行的數據管理,包括使用數據的質量和完整性。AI系統須在系統的整個生命周期內確保隱私和數據保護,包括最初由用戶提供的信息,以及在用戶與系統交互過程中產生的關于用戶的信息。人類行為的數字記錄可以允許AI系統推斷個人偏好、性取向、年齡、性別、宗教或政治觀點,為了使個人信任數據收集過程,必須確保收集的有關數據不會被非法使用或使他們受到不公平歧視。另外,所使用的數據集的質量對AI系統的性能至關重要。收集的數據,可能包含對社會構造的偏見、不準確、錯誤和誤差。因此,如何確保數據質量且確保數據的完整性至關重要。惡意數據進入AI系統可能會改變其行為,尤其是自學系統。因此,必須在每個步驟(例如規劃、訓練、測試和部署)中測試和記錄所使用的流程和數據集,這也適用于其他獲取而非內部開發的人工智能系統。
關鍵要素四:透明度。即與AI系統相關的數據、系統和商業模型的透明度。產生AI系統決策的數據集和過程,包括數據收集和數據標記以及所使用的算法,應予以記錄,以實現可追溯性和提高透明度。這樣可以確定AI決策錯誤的原因,反過來也可幫助防止未來的錯誤。可追溯性有助于提高可審查性和可解釋性。
關鍵要素五:多樣性、非歧視性和公平性,即人類在整個AI系統的生命周期內,通過包容性設計和平等性設計,確保平等訪問可信賴的AI。AI系統(用于訓練和操作)使用的數據集可能會受制于偏差、不完整和管理不當等問題,這類偏見可能導致對某些群體或個人直接、間接侵害和歧視,從而加劇偏見和邊緣化。因此,AI系統開發者應盡可能在數據收集階段消除可識別和歧視性偏見。開發人工智能系統的方式(例如算法編程)也可能遭受不公平的偏見,這可以通過建立監督機制來抵消,以清晰透明的方式分析和解決系統的目的、約束、要求和決策。此外,應鼓勵從不同背景、文化和學科招聘開發人員以保證意見的多樣性。另外,在B2C領域,AI系統應以用戶為中心,允許所有人使用AI產品或服務,無論其年齡、性別、能力或其他特征,特別是殘疾人士均可以使用AI產品和服務。AI系統不應采用一刀切的設計,設計原則應符合相關的可訪問性標準且滿足最廣泛的用戶范圍。所有人能夠平等訪問和積極參與現有和將有的計算機介導的人類活動以及輔助技術。
關鍵要素六:社會和環境福祉,即根據公平性和預防損害原則,在整個AI系統的生命周期中,更廣泛的社會、其他生命和環境也應被視為利益相關者。應鼓勵AI系統的可持續性和生態責任,并將此研究納入AI解決方案以解決全球關注的問題,如可持續發展。理想情況下,人工智能系統應用于使所有人類(包括后代)受益。人工智能系統承諾幫助解決一些緊迫的社會問題,并且盡可能以環境友好的方式解決。如AI系統的開發和使用過程,以及整個供應鏈都應該進行這方面的評估。例如:通過對訓練期間資源使用和能源消耗的嚴格審查,選擇危害較小的方式。另外,如果人類在生活的各個方面(教育、工作、健康、娛樂)使用AI系統,都可能改變我們對社交媒介的理解,或影響我們的社會關系和依附。雖然人工智能系統可用于提高社交技能,但同樣可以使其惡化,這也可能影響人們的身心健康。因此,必須仔細監測和考慮這些負面影響。除了評估人工智能系統的開發和使用對個人的影響之外,還應從社會角度評估這種影響,同時考慮其對行政機構、民主和整個社會的影響。特別是在與民主進程有關的情況下,仔細考慮使用AI系統,包括政治決策、選舉等。
關鍵要素七:問責機制,即建立可審計機制以確保AI系統及其成果在開發、部署和使用前后的責任和問責。可審計性包含了對算法、數據和設計過程的評估。但這并不意味著與人工智能系統相關的商業模型和知識產權需要公開。內部和外部審計人員的評估以及此類評估報告有助于驗證技術的可信度。在影響基本權利的應用中,比如與關鍵安全相關的應用,AI系統進行獨立審計。在實施上述要求時出現的緊張關系會導致不可避免的權衡。這需要確定AI系統所涉及的相關利益和價值觀。如果出現沖突,應明確并權衡其對道德原則(包括基本權利)的風險。在道德上不可接受權衡的情況下,人工智能系統的開發、部署和使用不應以該形式進行。任何關于權衡的決定都應可解釋并被妥善記錄。決策者必須對權衡的方式負責,并應不斷審查最終決策的適當性,以確保能在必要時修改系統。
(昝妍/編譯)
本報擁有此文版權,若需轉載或復制,請注明來源于中國政府采購報,標注作者,并保持文章的完整性。否則,將追究法律責任。
責任編輯:LIZHENG
點擊排行
歡迎訂閱中國政府采購報
我國政府采購領域第一份“中”字頭的專業報紙——《中國政府采購報》已于2010年5月7日正式創刊!
《中國政府采購報》由中國財經報社主辦,作為財政部指定的政府采購信息發布媒體,服務政府采購改革,支持政府采購事業,推動政府采購發展是國家和時代賦予《中國政府采購報》的重大使命。
《中國政府采購報》的前身是伴隨我國政府采購事業一路同行12年的《中國財經報?政府采購周刊》。《中國政府采購報》以專業的水準、豐富的資訊、及時的報道、權威的影響,與您一起把握和感受中國政府采購發展事業的脈搏與動向。
《中國政府采購報》為國際流行對開大報,精美彩色印刷;每周二、周五出版,每期8個版,全年訂價276元,每月定價23元,每季定價69元。零售每份3元。可以破月、破季訂閱。 可以破月、破季訂閱。
歡迎訂閱《中國政府采購報》!
訂閱方式:郵局訂閱(請到當地郵局直接訂閱)