當前位置:
首頁 > 科技 > 上海交大張拳石:神經網路的可解釋性,從經驗主義到數學建模

上海交大張拳石:神經網路的可解釋性,從經驗主義到數學建模

作者 | 張拳石

來源 | 轉載自知乎Qs.Zhang張拳石

本來想把題目取為「從煉丹到化學」,但是這樣的題目太言過其實,遠不是近期可以做到的,學術研究需要嚴謹。但是,尋找適當的數學工具去建模深度神經網路表達能力和訓練能力,將基於經驗主義的調參式深度學習,逐漸過渡為基於一些評測指標定量指導的深度學習, 是新一代人工智慧需要面對的課題,也是在當前深度學習渾渾噩噩的大背景中的一些新的希望。

這篇短文旨在介紹團隊近期的ICML工作——」Towards a Deep and Unified Understanding of Deep Neural Models in NLP」(這篇先介紹NLP領域,以後有時間再介紹類似思想解釋CV網路的論文)。這是我與微軟亞洲研究院合作的一篇論文。其中,微軟研究院的王希廷研究員在NLP方向有豐富經驗,王老師和關超宇同學在這個課題上做出了非常巨大的貢獻,這裡再三感謝。

大家說神經網路是「黑箱」,其含義至少有以下兩個方面:一、神經網路特徵或決策邏輯在語義層面難以理解;二、缺少數學工具去診斷與評測網路的特徵表達能力(比如,去解釋深度模型所建模的知識量、其泛化能力和收斂速度),進而解釋目前不同神經網路模型的信息處理特點。

過去我的研究一直關注第一個方面,而這篇ICML論文同時關注以上兩個方面——針對不同自然語言應用的神經網路,尋找恰當的數學工具去建模其中層特徵所建模的信息量,並可視化其中層特徵的信息分布,進而解釋不同模型的性能差異。

其實,我一直希望去建模神經網路的特徵表達能力,但是又一直遲遲不願意下手去做。究其原因,無非是找不到一套優美的數學建模方法。深度學習研究及其應用很多已經被人詬病為「經驗主義」與「拍腦袋」,我不能讓其解釋性演算法也淪為經驗主義式的拍腦袋——不然解釋性工作還有什麼意義。

研究的難點在於對神經網路表達能力的評測指標需要具備「普適性」和「一貫性」。首先,這裡「普適性」是指解釋性指標需要定義在某種通用的數學概念之上,保證與既有數學體系有儘可能多的連接,而與此同時,解釋性指標需要建立在儘可能少的條件假設之上,指標的計算演算法儘可能獨立於神經網路結構和目標任務的選擇。

其次,這裡的「一貫性」指評測指標需要客觀的反應特徵表達能力,並實現廣泛的比較,比如

診斷與比較同一神經網路中不同層之間語義信息的繼承與遺忘;

診斷與比較針對同一任務的不同神經網路的任意層之間的語義信息分

比較針對不同任務的不同神經網路的信息處理特點。

具體來說,在某個NLP應用中,當輸入某句話x=[x1,x2,…,xn]到目標神經網路時,我們可以把神經網路的信息處理過程,看成對輸入單詞信息的逐層遺忘的過程。即,網路特徵每經過一層傳遞,就會損失一些信息,而神經網路的作用就是儘可能多的遺忘與目標任務無關的信息,而保留與目標任務相關的信息。於是,相對於目標任務的信噪比會逐層上升,保證了目標任務的分類性能。

我們提出一套演算法,測量每一中層特徵f中所包含的輸入句子的信息量,即H(X|F=f)。當假設各單詞信息相互獨立時,我們可以把句子層面的信息量分解為各個單詞的信息量H(X|F=f) = H(X1=x1|F=f) H(X2=x2|F=f) … H(Xn=xn|F=f). 這評測指標在形式上是不是與信息瓶頸理論相關?但其實兩者還是有明顯的區別的。信息瓶頸理論關注全部樣本上的輸入特徵與中層特徵的互信息,而我們僅針對某一特定輸入,細粒度地研究每個單詞的信息遺忘程度。

其實,我們可以從兩個不同的角度,計算出兩組不同的熵H(X|F=f)。(1)如果我們只關注真實自然語言的低維流形,那麼p(X=x|F=f)的計算比較容易,可以將p建模為一個decoder,即用中層特徵f去重建輸入句子x。(2)在這篇文章中,我們其實選取了第二個角度:我們不關注真實語言的分布,而考慮整個特徵空間的分布,即x可以取值為雜訊。在計算p(X=x,F=f) = p(X=x) p(F=f|X=x)時,我們需要考慮「哪些雜訊輸入也可以生成同樣的特徵f」。舉個toy example,當輸入句子是"How are you?"時,明顯「are」是廢話,可以從「How XXX you?」中猜得。這時,如果僅從真實句子分布出發,考慮句子重建,那些話佐料(「are」 「is」 「an」)將被很好的重建。而真實研究選取了第二個角度,即我們關注的是哪些單詞被神經網路遺忘了,發現原來「How XYZ you?」也可以生成與「How are you?」一樣的特徵。

這時,H(X|F=f)所體現的是,在中層特徵f的計算過程中,哪些單詞的信息在層間傳遞的過程中逐漸被神經網路所忽略——將這些單詞的信息替換為雜訊,也不會影響其中層特徵。這種情況下,信息量H(X|F=f)不是直接就可以求出來的,如何計算信息量也是這個課題的難點。具體求解的公式推導可以看論文,知乎上只放文字,不談公式。

首先,從「普適性」的角度來看,中層特徵中輸入句子的信息量(輸入句子的信息的遺忘程度)是資訊理論中基本定義,它只關注中層特徵背後的「知識量」,而不受網路模型參數大小、中層特徵值的大小、中層卷積核順序影響。其次,從「一貫性」的角度來看,「信息量」可以客觀反映層間信息快遞能力,實現穩定的跨層比較。如下圖所示,基於梯度的評測標準,無法為不同中間層給出一貫的穩定的評測。

下圖比較了不同可視化方法在分析「reverse sequence」神經網路中層特徵關注點的區別。我們基於輸入單詞信息量的方法,可以更加平滑自然的顯示神經網路內部信息處理邏輯。

下圖分析比較了不同可視化方法在診斷「情感語義分類」應用的神經網路中層特徵關注點的區別。我們基於輸入單詞信息量的方法,可以更加平滑自然的顯示神經網路內部信息處理邏輯。

基於神經網路中層信息量指標,分析不同神經網路模型的處理能力。我們分析比較了四種在NLP中常用的深度學習模型,即BERT, Transformer, LSTM, 和CNN。在各NLP任務中, BERT模型往往表現最好,Transformer模型次之。

如下圖所示,我們發現相比於LSTM和CNN,基於預訓練參數的BERT模型和Transformer模型往往可以更加精確地找到與任務相關的目標單詞,而CNN和LSTM往往使用大範圍的鄰接單詞去做預測。

進一步,如下圖所示,BERT模型在預測過程中往往使用具有實際意義的單詞作為分類依據,而其他模型把更多的注意力放在了and the is 等缺少實際意義的單詞上。

如下圖所示,BERT模型在L3-L4層就已經遺忘了EOS單詞,往往在第5到12層逐漸遺忘其他與情感語義分析無關的單詞。相比於其他模型,BERT模型在單詞選擇上更有針對性。

我們的方法可以進一步細粒度地分析,各個單詞的信息遺忘。BERT模型對各種細粒度信息保留的效果最好。

十多年前剛剛接觸AI時總感覺最難的是獨立找課題,後來發現追著熱點還是很容易拍腦袋想出一堆新題目,再後來發現真正想做的課題越來越少,雖然AI領域中學者們的投稿量一直指數增長。

回國以後,身份從博後變成了老師,帶的學生增加了不少,工作量也翻倍了,所以一直沒有時間寫文章與大家分享一些新的工作,如果有時間還會與大家分享更多的研究,包括這篇文章後續的眾多演算法。信息量在CV方嚮應用的論文,以及基於這些技術衍生出的課題,我稍後有空再寫。

作者介紹:

張拳石,上海交通大學副教授。2009年獲北京大學機器智能學士學位,並於2011年和2014年獲得日本東京大學空間信息科學中心理科碩士和博士學位。2014年至2018年,他是加州大學洛杉磯分校的博士後研究員,師從朱松純教授。他的研究興趣涵蓋計算機視覺和機器學習。目前,他正在領導一個可解釋AI小組,相關主題包括可解釋神經網路、預訓練神經網路解釋,以及無監督/弱監督學習。

(*本文為 AI科技大本營轉載文章,轉載請聯繫原作者)

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 AI科技大本營 的精彩文章:

老碼農冒死揭開真相:「別吹了,Python無用!」
程序員冒死揭開家暴內幕:教女友學Python是道送命題!

TAG:AI科技大本營 |