當前位置:
首頁 > 最新 > 為什麼我們如此關注可解釋的演算法?為黑盒演算法辯護

為什麼我們如此關注可解釋的演算法?為黑盒演算法辯護

作者|Alex P. Miller

譯者|張健欣

編輯|Emily

演算法正開始用於各種有高風險後果的應用程序。這些應用程序橫跨各種領域,包括刑事量刑、開醫療處方和僱傭員工等。隨著向人工智慧驅動的決策方式的轉變,關於「黑盒」的機器學習演算法存在的問題的文章和思考紛至沓來。許多記者和評論家深刻地指出這些演算法的潛在問題,包括歧視少數民族、載入不應該影響最終結果的虛假變數以及使用不能被任何人類理解的莫名其妙的複雜邏輯。

在許多情況下,這些擔憂是合理的,這些演算法確實應該非常小心地實現。然而,當我們繼續尋找使用機器學習演算法的新應用時,我們不應該因為這種對於演算法解釋性的關注而忽視關於這個世界的一個殘酷事實:人類決策通常是變化無常的、非理性的,並沒有比最不透明的演算法更具有可解釋性。

具體問題具體分析

這裡為了方便討論,將演算法應用分為兩類:一類是將演算法用於自動決策以取代人類決策;另一類是在應用程序中用演算法來取代基於規則的流程。基於規則的流程有許多易於度量的標準用於決策。基於規則的流程都非常不錯,因為它們很容易理解。當然,這些規則本身可能並不是那麼好(例如在許多量刑法規中),但是相對於其它流程來說,至少基於規則的流程都有清晰的可以用來討論和評估的標準。

「可解釋性」的價值在第二類應用程序中非常明顯。從一個基於規則的世界轉向一個充滿隨機性和神經網路的黑盒世界,決策者變得無所適從也是可以理解的。如果一所大學,過去簡單地使用 SAT 和 GPA 錄取線來進行錄取決策,現在使用多功能的深度神經網路取代這個流程,將明顯產生一些關於 SAT 分數和 GPA 如何影響演算法的錄取決策的具體問題。

然而,我認為不應該對第一類應用程序(演算法用來取代純人類決策)也要求相同的可解釋性標準。正如我在其它地方提到的(以及其它研究人員強調的),根據演算法要取代的系統來評估演算法的效能是非常重要的。這也是這兩類應用程序(一類取代人類,一類取代規則)之間的區別為什麼非常重要的原因。當我們特別關注那些用演算法取代人類的應用程序時,可解釋性很明顯是一個站不住腳的雙重標準。

人類是非理性的

雖然最近在機器學習和演算法決策方面取得了最新的進展,但是人類大腦已經存在了很長一段時間了。雖然出現了大量關於如何使用演算法進行決策的新研究,但是研究人員(如果不是千禧年之後出生)已經用了幾十年時間來研究人類大腦是如何決策的。這些研究中最普遍一致的發現是,在每一個可以想像的環境中都有外在因素影響人類的決策。

其中一個簡單的例子,心理學家稱之為「錨定效應」。為了演示人類如何容易被不相關的信息影響,我們可以考慮 Ariely、Lowenstein 和 Prelec(2003)的一次經典研究:研究人員讓一群學生寫下他們的社會安全係數的最後兩位數和他們是否願意付那個數量的錢來購買一盒巧克力。為了探出這群學生對於巧克力的真實定價,他們讓這些學生在一場拍賣會上為這盒巧克力投標。雖然很明顯對於你我來說,你的社會安全系統(本質上是一個隨機數字)的最後兩位數應該與你如何定價一盒巧克力沒有任何關係,但是研究人員發現在社會安全係數和這群學生的實際購買意願之間有顯著的關聯。此外,儘管統計證據顯示出與常識相反的關聯性,但是大部分學生堅持稱他們的社會安全係數對他們的投標沒有任何影響。

另外一個廣為人知的外在因素影響人類決策的例子是,「飢餓的法官「研究。研究結果顯示,這些法官在午餐之後(他們的胃是滿的)比在午餐之前(他們的血糖較低)更可能作出有利於被告假釋的判決。

法官穿著越少,對被告的判決越不利(Danzinger et al., 2011)

也許你會對這些特定的例子有所疑慮:這些例子感覺太刻意設計了、投注不足夠高、樣本量不足夠大或者混雜的變數沒有有效地控制。(合理的批評確實存在,例如《關於在 WTP 和 WTA 試驗中錨定效應的健壯性》和《不可能的飢餓的法官》。)你可能更傾向於忽視這些研究,但是還有成百上千深入研究過的關於主流認知偏差的例子。行為經濟學家 Richard Thaler 的工作是論證在高投注的有重要後果的情況下也存在認知偏差。事實上,Richard Thaler 最近獲得諾貝爾獎,很大程度上是因為他這方面的工作的價值。你不能忽略從大量調研中得到的關於判斷和決策的壓倒性的結論:人們一直被外在因素影響他們的決策。

至少我們可以自我解釋... 是這樣么?

雖然認知偏差本身是有害的,但更糟糕的是,當你讓人們解釋他們的決定時,他們通常弄不清楚他們為什麼要那麼做。正如 Ariely 的學生堅持稱他們的社會安全係數根本不影響他們如何對一盒巧克力定價,我們通常不會意識到這些偏差是如何進入我們的思維流程的。另外,即使我們為某個特定的決定提供了貌似有理的原因,還是會有充足的證據證明這些原因通常純粹是虛構的。

一篇經典的論證這些效果的論文是 Nisbett 和 Wilson 的《Telling more than we can know》(1977)。我高度推薦完整地閱讀這篇論文來全面了解人類從虛無縹緲中扯出充足的合理性是多麼荒謬地常見,但這裡我會簡要總結他們的觀點:

證據表明,高階的認知過程可能只有很少或者根本沒有直接的驗證渠道。受試者有時候(a)意識不到對反應有重要影響的因素的存在,(b)意識不到反應的存在,(c)意識不到因素已經影響了反應。

這是一種奇特的學術說法,人們通常不清楚他們為什麼作出特定的決策,即使研究人員可以通過統計方式證明外在因素是相關的。

演算法並沒有那麼差

只要我們記住人類自己也總會出現認知偏差,我們就可以恰當地評估使用演算法來自動化人類決策,這時通過對比就會發現,這些演算法對於決策是很有幫助的。至少同一個演算法從始至終會給你相同的答案。演算法也不需要維持任何社會名聲或自尊。因此當我們研究這些演算法如何達成一個特定的決定時,它們不會用看似有理的合理化來為自己辯護。

不要誤會我的意思:我只是為了更好地理解不透明的演算法如何進行決策。但是,是時候停止自欺欺人,不要再相信人類在合理化他們的決定時不會牽強附會。事實上,只有依靠演算法的決定性和一致性,而不是人類的不可預知性和隨意性,我們才可以嚴格地逐漸探究它們的邏輯並度量它們的改進。

失之東隅,收之桑榆

我們雖然失去了對演算法的理解,但通過演算法增加了成果。對社會學家或經濟學家來說,可解釋性當然是至高無上的:大多數科學研究的主要目標是獲得原理,這個原理能夠解釋事情是如何發生的以及為什麼會發生。然而,對於結果主義者,例如,那些只關心世界上真正在發生的事情的人,可解釋性就會處於次要地位。如果我們關心減少種族不公正的數量並增加所有階層人民的公平機會,那麼我們就可以將這些作為比較人類決策和演算法決策的標準。

只要演算法能夠真正地減少偏見和歧視,我們就應該將可解釋性降為第二優先順序。而許多研究已經證明演算法確實能夠減少偏見和歧視。毫無疑問,保證演算法是可解釋的是一個有價值的目標,但是,那些堅持可解釋性的人一定要思考,與我們尋求的提高系統實際產出相比,這個目標是否真的更有價值。

關於作者

Alex P. Miller 是賓夕法尼亞大學沃頓商學院的信息系統與技術專業博士。

查看英文原文:

https://towardsdatascience.com/why-do-we-care-so-much-about-explainable-algorithms-in-defense-of-the-black-box-d9e3bc01e0dc

如果覺得內容不錯,記得給我們「留言」和「點贊」,給編輯鼓勵一下!


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 AI漫遊 的精彩文章:

CNN對抗補丁之謎

TAG:AI漫遊 |