當前位置:
首頁 > 新聞 > 用谷歌「AI可解釋性」 看懂機器學習

用谷歌「AI可解釋性」 看懂機器學習

雷鋒網按:這裡是,雷鋒字幕組編譯的Two minutes paper專欄,每周帶大家用碎片時間閱覽前沿技術,了解AI領域的最新研究成果。

原標題 Building Blocks of AI Interpretability - Two Minute Papers #234

翻譯 | 陳曉璇    字幕 | 凡江    整理 | 吳璇  逯玉婧

誰再說神經網路是黑盒,甩出這篇文章,給TA翻個白眼。

上周,谷歌Jeff Dean在推特上轉發了一句話「還認為神經網路是黑盒嗎?要不再想想 :) 」。

還配上了《紐約時報》一篇名為《谷歌研究人正在搞懂機器學習》的文章。

點進這篇文章發現,Jeff Dean意指論文《The Building Blocks of Interpretability》(譯名:可解釋性的基石)在神經網路可視化方面的新進展。

研究由谷歌大腦研究員Chris Olah帶隊完成,創建了一套神經網路可視化方法。

左圖:可以被神經網路識別,比如說,告訴我們圖片里有沒有花瓶或檸檬。

右圖:神經網路中間層的可視化呈現,能夠檢測到圖片中的每個點。

看起來,神經網路正在檢測,像花瓶的模型以及像檸檬的物體。

論文將獨立的神經元、分類歸屬與可視化結合,從而提供一種理解神經元的方法。

我們通過觀察「神經元可以被哪些圖像激活」,「神經元在找哪些圖像「、「神經元判定這個圖像屬於哪一類「,可以判斷出「神經元的最終決策及貢獻值「。

這個過程減少了神經元的總數,並且將神經元分解成一些小的語義組,得出有意義的解釋方法。在論文中被稱作「因式分解「或者「神經元分組」。通過做這項工作,我們可以得到高度描述性的標籤,賦予它們直觀的含義。

現在我們把一張圖片放到拉布拉多組,神經網路開始觀察拉布拉多的耳朵、額頭、嘴巴還有毛髮的組合。過程可以由一個活動地圖來展示,通過觀察,我們可以輕鬆看到神經元群組興奮點。

我們這裡僅僅概括了論文的表面含義,論文中還有許多其他的成果和互動的案例供大家賞析。

論文原址https://distill.pub/2018/building-blocks/

更多文章,關注雷鋒網雷鋒網

添加雷鋒字幕組微信號(leiphonefansub)為好友

備註「我要加入」,To be an  AI  Volunteer !


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷鋒網 的精彩文章:

PyTorch 團隊發表周年感言:感謝日益壯大的社群,這一年迎來六大核心突破
央行要發行數字貨幣?周小川:先局部測試,可靠後再推廣

TAG:雷鋒網 |