幾乎零能耗零延遲!UCLA科學家發明光衍射神經網路,登上Science
夏乙 發自 凹非寺
量子位 報道 | 公眾號 QbitAI
深度學習,現在已經成立幾乎每一個圖像識別、語音識別、機器翻譯系統的標配組件,而它的缺點也一直在被各界人士吐槽:
不夠快,太耗能,不可解釋……
加州大學洛杉磯分校(UCLA)的一組科學家們,就要從另一個角度,來解決不夠快和能耗高的問題。
UCLA電子工程系教授Aydogan Ozcan帶著自己的團隊,把神經網路從晶元上搬到了現實世界中,依靠光的傳播,實現幾乎零能耗、零延遲的深度學習。
這個解決方案叫做D2NN:衍射深度神經網路(Diffractive Deep Neural Network)。它是光學工具、3D列印和神經網路的結合。
他們的成果,登上了Science。
這個系統有著傳統神經網路無法匹敵的優點:一是更快,在D2NN里,信息傳遞的速度,等於光速;二是能耗接近於0:除了最開始要提供一個光源之外,就不再需要耗電了。
D2NN由多個衍射層構成,一層上的每一個點都相當於神經網路的一個神經元。它的訓練方式和深度學習一樣,只不過得到的不是神經元的權重,而是神經元的透光/反射係數。
訓練完成,得到D2NN的最終設計,就到了製造階段。這些衍射層會被3D列印出來,在它學會的任務上做推斷。
在推斷過程中,在這個神經網路中傳遞的並不是人類可見的光,而是0.4太赫茲頻率的單色光。Ozcan將D2NN比作用光來連接神經元、傳遞信息的實體大腦。
Ozcan團隊在這項研究中,製造了不同類型的D2NN,有用來給圖像分類的(上圖B),有用來成像的(上圖C)。
一個D2NN設計出來、列印完成後,還可以繼續優化。
比如說,科學家們針對MNIST手寫數字識別任務,訓練了一個5層的D2NN,每一層的尺寸是8cm×8cm,達到了91.75%的準確率。
然後,他們又為這個D2NN加了兩層,來優化性能。於是,這個7層網路在MNIST上的分類準確率達到了93.39%。
在比MNIST稍微複雜一些的基準數據集Fashion-MNIST上,5層的D2NN最高實現了86.33%的準確率。
當然,D2NN現在還只能算是個嬰兒,和卷積神經網路現在動輒99%的準確率沒法比。
接下來,Ozcan團隊還打算製造尺寸更大、層數更多的D2NN。
說不定有一天,這種新型的神經網路強大起來,我們會對不需耗電就能識別人臉的攝像頭習以為常。
論文在此:
//innovate.ee.ucla.edu/wp-content/uploads/2018/07/2018-optical-ml-neural-network.pdf
—完—
※一顆賽艇!上海交大搞出SRNN,比普通RNN也就快135倍
※慌不擇路?ARM建網站專撕RISC-V,連自家員工都看不下去了
TAG:量子位 |