「深度學習不是學習」:英特爾高管與AI大牛LeCun展開互懟
郭一璞 夏乙 假裝發自 舊金山
量子位 出品 | 公眾號 QbitAI
「深度學習不是真正的學習。」
英特爾神經形態計算實驗室主任Mike Davies在國際固態電路會議(ISSCC)上將深度學習批判了一番。
Davies說,深度學習跟大多數人印象中的並不一樣,它只是一種優化程序,實際上並不是真正在「學習」。
受到攻擊的重災區,還是深度學習中的反向傳播演算法。
他說,反向傳播與大腦無關,而只是在深度學習計算機程序中用來優化人工神經元響應的一種數學技術。
自然的反向傳播例子,並不存在。
雖然他承認深度學習現在非常有效,但他也堅定地強調里,大腦才是真正智能計算的範例。
Davies死死抓住不放的「不像大腦」這個問題,也正是深度學習教父Hinton一直重視的。
不過對於這次批判本身,美國媒體ZDNet認為,他主要的攻擊目標其實是Yann LeCun。
深度學習vs.神經形態計算之爭
為何攻擊LeCun?
就在周一,這位AI大牛在同一個學術會議上發言時,順便批判了Davies在搞的神經形態計算。
神經形態計算是英特爾布局的一個重要新興方向,在這個領域,他們推出了晶元樣品Loihi。英特爾說,這種晶元可以實現自主學習,而且能耗只有傳統晶元的千分之一。
而Davies就是神經形態計算實驗室的負責人,主管著英特爾在這一領域的探索。他參加ISSCC會議,也是來講Loihi的。
Loihi用了一種名叫尖峰神經元(spiking neurons)的技術,這類神經元只有在輸入樣本後才能被激活。
神經形態計算倡導者們認為,這種方法更好地模擬了大腦的運行機制,比如說信號傳遞的過程就像大腦一樣經濟。
在LeCun看來,神經形態計算領域沒有產生有實際效果的演算法,為何要為一種沒用的演算法構建晶元?
不過Davies直接表達了反對,他說,神經形態計算產生的演算法是有效的,LeCun忽視了神經形態計算的優勢。
Davies說:「LeCun反對尖峰神經元,但他卻說我們需要解決硬體中的稀疏性,尖峰神經元就是干這個的啊。」
他說,這太諷刺了。
為了駁斥對尖峰神經元的批評,Davies引用了安大略滑鐵盧一個名叫應用腦科學(Applied Brain Science)的機構的數據,比較了一種語音檢測演算法在不同晶元上的表現。
這個演算法被要求識別「aloha」這個詞,並且拒絕無意義詞語,這家機構在CPU、GPU和Loihi晶元上運行了這一演算法。
這份數據顯示,Loihi在常規處理器上運行常規神經網路性能最佳,特別是在計算速度方面,並且能源效率更高,不過精確度會低一些。
在另一個例子中,Davies說Loihi執行的基本分類器任務的速度是傳統的基於GPU的深度學習網路的40倍,準確度提高了8%。
因此,Davies認為Loihi效率高得多,可以運行規模越來越大的網路,他認為,機器人控制將會是Loihi這類神經形態晶元的殺手級應用。
Davies還從LeCun的批評挑出了他認同的一點:尖峰神經元的硬體非常充足,提供了很多工具來映射有趣的演算法。
針對這句話後邊隱含的「但是軟體演算法層面不行」,Davies說,他的團隊當前目標就是在演算法上取得進展,演算法確實拖了這個領域的後腿。
在推特上,也有人隔空參與了這場辯論。
有人認為,神經形態計算就像量子計算一樣處在起步階段,所以沒什麼可批判的。
也有人覺得深度學習已經在許多領域內取得了成果,量子計算和神經形態計算還差得遠,雖然技術很尤其,但兩者都沒有被證實,而且都沒有編程模型。
其實,這場LeCun和Davies的爭鬥,除了學術方面之外,另外不得不考慮的一點就是Facebook和英特爾的商業競爭。
周一,LeCun表示Facebook內部正在開發AI晶元,一旦Facebook自己的晶元研發成功,那就不需要使用英特爾的晶元了,甚至還會搶走英特爾的客戶。
看完這場隔空口水戰的來龍去脈,我們把目光收回到Davies指責的核心:反向傳播。
訓練深度學習模型離不開它,但對它的質疑也接連不斷。
反向傳播到底行不行?
反向傳播,生於1986,出自David Plaut、Steven Nowlan、Geoffrey Hinton在卡耐基梅隆大學(CMU)時發表的Nature論文:Experiments on Learning by Back Propagation。
www.cs.toronto.edu/~fritz/absps/bptr.pdf
31年後,這一概念已經隨著深度學習廣泛應用到了各種領域,也遇到了最大的一次危機。
它的的提出者之一、「深度學習之父」Hinton在多倫多舉辦的一場會議上公開提出了質疑。
他說,他對反向傳播「深感懷疑」,甚至想「全部拋掉,重頭再來」。因為,大腦的運作機制並不是這樣的。
「不像大腦」這個問題,Hinton一直非常重視,他曾在MIT的一次講座上說,他相信正是這些不像大腦的東西,導致人工神經網路的效果不夠好。
在Hinton發出自我質疑之後,反向傳播更成了討論的熱點,甚至被稱為「今日AI的阿喀琉斯之踵」。
不過現在,可能Hinton應該自己的作品稍微滿意一點了。
哈佛大學臨床神經科學學院的兩位科學家在最新一期Cell旗下期刊《認知科學趨勢》(Trends in Cognitive Sciences)上發表綜述,總結了人工神經網路的反向傳播演算法,在大腦中是怎樣體現的。
這篇綜述題為「大腦中誤差反向傳播的理論」(Theories of Error Back-Propagation in the Brain),綜合了近來的一批理論研究,分析幾類生物反向傳播模型。
作者說,這些理論研究「否定了過去30年來普遍接受的教條,即:誤差反向傳播演算法太複雜,大腦無法實現」。
根據這些研究,腦神經迴路中類似反向傳播的機制,是基於突觸前和突觸後神經元活動的簡單突觸可塑性規則。
論文:https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(19)30012-9
※用英偉達StyleGAN生成老婆吧,他生成了一百多隻明日香
※超強幹貨!TensorFlow易用代碼大集合,請盡情複製粘貼
TAG:量子位 |