Science專欄:關於AI黑箱的終極答案
新智元報道
來源:Science
作者:Elizabeth A. Holm 編輯:肖琴
【新智元導讀】AI在很多情況下仍然是黑箱,但對黑箱方法的全盤否定可能是草率的。Science刊文認為,許多問題仍然是人類智能和可解釋AI的研究範圍,但與此同時,黑箱方法可以提供價值、優化結果和激發靈感。
科幻小說作家道格拉斯 · 亞當斯 (Douglas Adams) 設想了有史以來最偉大的計算機——「深思」(Deep Thought),它被編程來回答有史以來最深刻的問題:關於生命、宇宙,以及一切的終極問題。
經過 750 萬年的計算,深思揭示了它的答案:42。
隨著 AI 系統進入人類社會的每一個領域 —— 包括科學、工程和健康 —— 人類也面臨著如同亞當斯所設計的同樣難題:當不清楚為什麼是這個答案時,知道這個答案有什麼好處?黑箱 (black box) 有什麼用?
在對物理科學和工程領域的同事進行的一項非正式調查中,絕大多數人表示,他們不使用深度學習等人工智慧方法的首要原因是,他們不知道如何解釋其結果。這是一個重要的反對意見,其含義從實踐到道德到法律都有。科學家的目標和工程師的責任不僅僅在於預測會發生什麼,還在於理解為什麼會發生。工程師和 AI 系統都可以學習預測橋樑是否會倒塌。但是只有工程師可以用物理模型來解釋他的預測,這個物理模型可以傳達給他人,並由他人評估。工程師和 AI 系統都作出了預測,但你寧願過誰的橋?
並非只有科學家和工程師對黑箱的答案持懷疑態度。2018 年出台的《歐盟通用數據保護條例》(European Union General Data Protection Regulation,簡稱 GDPR) 規定,在基於個人數據的自動決策過程中,個人能夠獲得 「涉及邏輯的有意義的信息」。該條例的法律解釋仍在辯論之中,但法規中明顯存在對無法解釋的系統的不信任。
在這種普遍的懷疑氛圍中,AI 研究人員較少為黑箱系統辯解,而更多地關注理解它們如何做出決策,這一點並不令人驚訝,這被稱為可解釋性問題 (interpretability problem)。事實上,這是當前計算機科學面臨的重大挑戰之一。但是這種對黑箱方法的全盤否定可能是草率的。事實上,就跟所有普通人一樣,科學家和工程師們的許多決定是基於判斷和經驗做出的,這些都是他們自己 「深度學習」 的結果。在這種情況下,考慮AI 系統生成的黑箱答案是否同樣有用似乎是合理的,那麼如果是的話,我們應該在什麼時候應用它們?
當黑箱有價值時:根據定義,人類無法評估黑箱演算法是如何得出特定答案的。然而,當黑箱方法產生了最佳結果時,當錯誤答案的成本較低時,或者當它們激發了新想法時,它們仍然可以提供價值。
第一個使用黑箱的例子,也是最顯然的用例是,當錯誤答案的代價相對於正確答案的價值更低時。定向廣告就是一個典型的例子。從供應商的角度來看,發布一個不受歡迎的廣告的成本很小,而一個成功的廣告的好處是巨大的。在我自己的材料科學領域,圖像分割 (對圖像中的像素進行分類的任務) 通常需要人類在材料的複雜內部結構的圖像中手工列出感興趣的對象。這是一個非常昂貴的過程,以至於博士論文和工業質量控制系統的設計都要求儘可能少地進行圖像分割。AI 系統可以訓練出雖然不完美、但保真度相當高的效果來完成這項工作。然而,要使這個系統有用,並不需要完美,因為與節省研究生的時間相比,略微不完美的像素的成本更低。
第二個關於黑箱的例子同樣顯而易見,但卻更令人擔憂。當黑箱產生最佳結果時,可以並且應該使用黑箱。例如,在閱讀標準的醫學圖像時,訓練好的 AI 系統提高了人類放射科醫生在檢測癌症方面的表現。儘管錯誤答案 (無論是假陰性還是假陽性) 的代價可能很高,但黑箱提供了目前可用的最佳解決方案。當然,讓 AI 讀乳房 X 線照片並不存在爭議,部分原因是人類醫生會檢查答案。但讓 AI 駕駛汽車更具爭議,因為黑箱必須在沒有人為干預的情況下做出生死抉擇。也就是說,自動駕駛汽車最終將比人類駕駛的汽車更安全;它們將在交通傷害和死亡方面產生最佳結果。當這個交叉點發生時,可以用適當的客觀指標來確定,但是,是否將人類的生死交給 AI 駕駛程序這一社會選擇,將不可避免地涉及基於主觀因素的決策,包括如何將人類的倫理、公平和責任等價值觀應用於非人類實體。
這些參數不應該被解釋為應用黑箱方法的自由許可。上面的兩個用例假設了一個理想的黑箱,由能夠計算成本並明確定義最佳結果的用戶操作。這兩種假設都存在陷阱。AI 系統可能存在許多缺點,包括偏見、在訓練領域之外的不適用性和脆弱性 (容易被愚弄)。此外,評估成本和最佳結果是平衡經濟、個人、社會和倫理等因素的一項複雜而主觀的工作。更糟的是,這些因素可能會疊加在一起:一個有偏見的模型可能會帶來隱性成本,包括客觀的錯誤預測和主觀衡量的不公平性。一個脆弱的模型可能有盲點,導致非常糟糕的決策。與任何決策系統一樣,黑箱必須與知識、判斷和責任一起使用。
儘管 AI 的思維過程可能是有局限的、有偏見的或完全錯誤的,但它們與人類思維過程的不同之處在於,它們可以揭示新的聯繫和方法。這就引出了黑箱系統的第三個用例:作為激發和引導人類探究的工具。例如,在一項突破性的醫學成像研究中,科學家訓練了一個深度學習系統,通過視網膜圖像診斷糖尿病視網膜病變 (一種影響眼睛的糖尿病併發症)。它們的表現達到甚至超過了眼科專家。更令人驚訝的是,該系統可以準確地識別出許多其他特徵,包括心臟病的危險因素、年齡和性別,而這些特徵通常不通過視網膜圖像進行評估。之前沒有人注意到人類視網膜的性別差異,因此黑箱的觀察激發了研究人員研究男性和女性視網膜的差異以及原因。對這些問題的研究將他們從黑箱中拉了出來,轉而採用可解釋的人工智慧和人類智能。
這讓我們回到了 「深思」 電腦的答案。我們不能使用黑箱人工智慧來尋找因果關係、系統化或理解。黑箱無法告訴我們一座橋是如何倒塌的,它為什麼會倒塌,以及生命、宇宙以及一切的終極問題是什麼。至少就目前而言,這些問題仍然是人類智能和可解釋 AI 廣闊且不斷發展的領域的研究範圍。然而,與此同時,按黑箱本身的條件接受它是值得的。黑箱方法可以為科學、技術、工程和數學做出實質性、富有成效的貢獻,以提供價值、優化結果和激發靈感。
原文:
http://science.sciencemag.org/content/364/6435/26
TAG:新智元 |