歐盟發布AI道德指南,這次可不是「鬧著玩」
雷鋒網註:【 圖片來源:The Verge所有者:European Commission 】
歐盟(EU)近日發布了一套指南,指導企業和政府在開發人工智慧時遵循道德準則。
這些道德準則與艾薩克·阿西莫夫的「機器人三定律」不同,它們並沒有提供一個簡單明了的道德框架來幫我們控制會殺人的機器人。相反,如果我們把AI整合到醫療保健、教育和消費技術等領域,AI將解決那些將影響社會的棘手問題。
例如,如果未來的AI系統診斷你患有癌症,那麼,歐盟就要確認一些事情:該軟體沒有因為你的種族或性別而對你產生偏見;它會遵從人類醫生的反對意見;它可以向患者解釋診斷情況。所以,這些道德準則確實旨在防止AI失控,但這是從管理和官僚層面來說,而不是類似阿西莫夫式的謀殺之論。
為了實現這一目標,歐盟召集了52名專家,他們提出了未來AI系統應該滿足的7項要求。如下:
1.人道機構的監督:AI不應該踐踏人類的自主性。人們不應該被人工智慧系統操縱或強迫,人類要有能力干預或監督軟體所做的每一個決策。
2.技術穩健性和安全性:AI應該安全且準確。它不應該輕易受到外部攻擊的影響,即便受到攻擊,它也應該十分可靠。
3.隱私和數據治理:AI系統收集的個人數據應該是保持安全和隱私。它不應該隨便讓人訪問,也不應該輕易被盜取。
4.演算法透明度:用於創建AI系統的數據和演算法應該是可訪問的,軟體做出的決策應該「被人類理解和跟蹤」。換句話說,運營商應該能夠解釋自己的AI系統做出的決定。
5.多元化、非歧視和公平性:AI提供的服務應該對所有人開放,不分年齡、性別、種族或其他特徵。同樣,系統也不應該偏向於這些界限。
6.環境和社會福利:AI系統應該是可持續的,也就是說它們應該對生態負責,它們還應該「促進積極的社會變革」。
7.完善問責制:AI系統應該是可審計的,公司應對其系統的負面影響應事先作出承認和報告。
我們可以看到,其中一些需求非常抽象,難以從客觀意義上進行評估。例如,「積極的社會變革」,對於這個詞的理解要因人而異,或者說因國而異。但其他方法則更為直接,可以通過政府監督進行檢驗。例如,共享用於訓練政府AI系統的數據,這可能是對抗偏見演算法的好方法。
雖然這些道德準則沒有法律約束力,但它們可能會影響歐盟未來起草的法律。歐盟曾多次表示,它希望成為AI道德領域的領導者,並且已經向GDPR表明,它願意制定影響深遠的法律來保護數字權利。
然而,從某種程度上來說,這一角色是環境強加給歐盟的,因為在投資和前沿研究方面,它無法與美國和中國等世界AI領導者競爭。因此,歐盟只能將道德作為其塑造該技術未來的最佳選擇。
歐盟的指南里還包括了一份「值得信賴的AI評估清單」,這份清單可以幫助專家找出AI軟體中的潛在弱點或危險。清單還對軟體公司設置了很多問題,包括「是否檢驗了貴公司的AI系統在意外情況和環境中的表現?」以及「是否評估了軟體數據集中數據的類型和範圍?」
這些評估清單只是初步的,但歐盟將在未來幾年裡收集公司的反饋意見,並在2020年提交有關其效用的最終報告。數字權利組織Access Now的政策經理范妮·希德維吉是幫助撰寫這份指南的專家之一,她表示,評估清單是指南中最重要的部分。
「這份清單為減輕AI的潛在危害提供了一個實用且具前瞻性的視角,」希德維吉告訴The Verge,「我們認為,歐盟有潛力和責任走在這項工作的前列。但歐盟不應止步於道德準則,因為道德準則只有在法律的基礎上才能發揮更大的作用。」
其他人則懷疑,歐盟試圖通過道德研究來引導全球AI的發展,這會對AI界產生重大影響。
「我們對歐盟正在採取的方法持懷疑態度,為AI制定道德的黃金標準並不能讓歐盟在全球AI發展中站穩腳跟,」數據創新中心的高級政策分析師埃利納·奇沃特對The Verge說道,「要成為AI道德領域的領導者,你首先要成為全球AI的領導者。」
雷鋒網註:本文編譯自The Verge
雷鋒網註:【封面圖片來源:網站名The Verge,所有者:European Commission】
※如何用體驗贏取用戶信任?讓 Waymo 來教教你
※躲開混臉熟的車型,一文帶你去看2019上海車展里的新面孔
TAG:雷鋒網 |