用谷歌「AI可解釋性」 看懂機器學習
雷鋒網按:這裡是,雷鋒字幕組編譯的Two minutes paper專欄,每周帶大家用碎片時間閱覽前沿技術,了解AI領域的最新研究成果。
原標題 Building Blocks of AI Interpretability - Two Minute Papers #234
翻譯 | 陳曉璇 字幕 | 凡江 整理 | 吳璇 逯玉婧
誰再說神經網路是黑盒,甩出這篇文章,給TA翻個白眼。
上周,谷歌Jeff Dean在推特上轉發了一句話「還認為神經網路是黑盒嗎?要不再想想 」。
還配上了《紐約時報》一篇名為《谷歌研究人正在搞懂機器學習》的文章。
點進這篇文章發現,Jeff Dean意指論文《The Building Blocks of Interpretability》(譯名:可解釋性的基石)在神經網路可視化方面的新進展。
研究由谷歌大腦研究員Chris Olah帶隊完成,創建了一套神經網路可視化方法。
左圖:可以被神經網路識別,比如說,告訴我們圖片里有沒有花瓶或檸檬。
右圖:神經網路中間層的可視化呈現,能夠檢測到圖片中的每個點。
看起來,神經網路正在檢測,像花瓶的模型以及像檸檬的物體。
論文將獨立的神經元、分類歸屬與可視化結合,從而提供一種理解神經元的方法。
我們通過觀察「神經元可以被哪些圖像激活」,「神經元在找哪些圖像「、「神經元判定這個圖像屬於哪一類「,可以判斷出「神經元的最終決策及貢獻值「。
這個過程減少了神經元的總數,並且將神經元分解成一些小的語義組,得出有意義的解釋方法。在論文中被稱作「因式分解「或者「神經元分組」。通過做這項工作,我們可以得到高度描述性的標籤,賦予它們直觀的含義。
現在我們把一張圖片放到拉布拉多組,神經網路開始觀察拉布拉多的耳朵、額頭、嘴巴還有毛髮的組合。過程可以由一個活動地圖來展示,通過觀察,我們可以輕鬆看到神經元群組興奮點。
我們這裡僅僅概括了論文的表面含義,論文中還有許多其他的成果和互動的案例供大家賞析。
論文原址https://distill.pub/2018/building-blocks/
更多文章,關注雷鋒網雷鋒網
添加雷鋒字幕組微信號(leiphonefansub)為好友
備註「我要加入」,To be an AI Volunteer !
※PyTorch 團隊發表周年感言:感謝日益壯大的社群,這一年迎來六大核心突破
※央行要發行數字貨幣?周小川:先局部測試,可靠後再推廣
TAG:雷鋒網 |