IBM全新AI晶元設計登上Nature:算力是GPU的100倍
選自SingularityHub
作者:Edd Gent
機器之心編譯
參與:李澤南、王淑婷
IBM 近日提出的全新晶元設計可以通過在數據存儲的位置執行計算來加速全連接神經網路的訓練。研究人員稱,這種「晶元」可以達到 GPU 280 倍的能源效率,並在同樣面積上實現 100 倍的算力。該研究的論文已經發表在上周出版的 Nature 期刊上。
用 GPU 運行神經網路的方法近年來已經為人工智慧領域帶來了驚人的發展,然而兩者的組合其實並不完美。IBM 研究人員希望專門為神經網路設計一種新晶元,使前者運行能夠更快、更有效。
直到本世紀初,研究人員才發現為電子遊戲設計的圖形處理單元 ( GPU ) 可以被用作硬體加速器,以運行更大的神經網路。
因為這些晶元可以執行大量並行運算,而無需像傳統的 CPU 那樣按順序執行。這對於同時計算數百個神經元的權重來說特別有用,而今的深度學習網路則正是由大量神經元構成的。
雖然 GPU 的引入已經讓人工智慧領域實現了飛速發展,但這些晶元仍要將處理和存儲分開,這意味著在兩者之間傳遞數據需要耗費大量的時間和精力。這促使人們開始研究新的存儲技術,這種新技術可以在同一位置存儲和處理這些權重數據,從而提高速度和能效。
這種新型存儲設備通過調整其電阻水平來以模擬形式存儲數據,即以連續規模存儲數據,而不是以數字存儲器的二進位 1 和 0。而且因為信息存儲在存儲單元的電導中,所以可以通過簡單地讓電壓通過所有存儲單元並讓系統通過物理方法來執行計算。
但這些設備中固有的物理缺陷會導致行為的不一致,這意味著目前使用這種方式來訓練神經網路實現的分類精確度明顯低於使用 GPU 進行計算。
負責該項目的 IBM Research 博士後研究員 Stefano Ambrogio 在此前接受 Singularity Hub 採訪時說:「我們可以在一個比 GPU 更快的系統上進行訓練,但如果訓練操作不夠精確,那就沒用。目前為止,還沒有證據表明使用這些新型設備和使用 GPU 一樣精確。」
但隨著研究的進展,新技術展現了實力。在上周發表在《自然》雜誌上的一篇論文中(Equivalent-accuracy accelerated neural-network training using analogue memory),Ambrogio 和他的同事們描述了如何利用全新的模擬存儲器和更傳統的電子元件組合來製造一個晶元,該晶元在運行速度更快、能耗更少的情況下與 GPU 的精確度相匹配。
這些新的存儲技術難以訓練深層神經網路的原因是,這個過程需要對每個神經元的權重進行上下數千次的刺激,直到網路完全對齊。Ambrogio 說,改變這些設備的電阻需要重新配置它們的原子結構,而這個過程每次都不相同。刺激的力度也並不總是完全相同,這導致神經元權重不精確的調節。
研究人員創造了「突觸單元」來解決這個問題,每個單元都對應網路中的單個神經元,既有長期記憶,也有短期記憶。每個單元由一對相變存儲器 ( PCM ) 單元和三個晶體管和一個電容器的組合構成,相變存儲器單元將重量數據存儲在其電阻中,電容器將重量數據存儲為電荷。
PCM 是一種「非易失性存儲器」,意味著即使沒有外部電源,它也保留存儲的信息,而電容器是「易失性的」,因此只能保持其電荷幾毫秒。但電容器沒有 PCM 器件的可變性,因此可以快速準確地編程。
當神經網路經過圖片訓練後可以進行分類任務時,只有電容器權重被更新了。在觀察了數千張圖片之後,權重會被傳輸到 PCM 單元以長期存儲。
PCM 的可變性意味著權重數據的傳遞可能仍然會存在錯誤,但因為單元只是偶爾更新,因此在不增加太多複雜性的情況下系統可以再次檢查導率。「如果直接在 PCM 單元上進行訓練,就不可行了,」Ambrogio 表示。
為了測試新設備,研究人員在一系列流行的圖像識別基準中訓練了他們的神經網路,並實現了與谷歌的神經網路框架 TensorFlow 相媲美的精確度。但更重要的是,他們預測最終構建出的晶元可以達到 GPU 280 倍的能源效率,並在同樣平方毫米面積上實現 100 倍的算力。
值得注意的是,研究人員目前還沒有構建出完整的晶元。在使用 PCM 單元進行測試時,其他硬體組件是由計算機模擬的。Ambrogio 表示研究人員希望在花費大量精力構建完整晶元之前檢查方案的可行性。
他們使用了真實的 PCM 設備——因為這方面的模擬不甚可靠,而其他組件的模擬技術已經成熟。研究人員對基於這種設計構建完整晶元非常有信心。
「它目前只能在全連接神經網路上與 GPU 競爭,在這種網路中,每個神經元都連接到前一層的相應神經元上,」Ambrogio 表示。「在實踐中,很多神經網路並不是全連接的,或者只有部分層是全連接的。」
交叉開關非易失性存儲器陣列可以通過在數據位置執行計算來加速全連接神經網路的訓練。圖片來源:IBM Research
Ambrogio 認為最終的晶元會被設計為與 GPU 協同工作的形式,以處理全連接層的計算,同時執行其他任務。他還認為處理全連接層的有效方法可以被擴展到其它更廣泛的領域。
這種專用晶元可以讓哪些設想成為可能?
Ambrogio 表示主要有兩種方向的應用:將 AI 引入個人設備,以及提高數據中心的運行效率。其中後者是科技巨頭關注的重點——這些公司的伺服器運營成本一直居高不下。
在個人設備中直接實現人工智慧可以免去將數據傳向雲端造成的隱私性顧慮,但 Ambrogio 認為其更具吸引力的優勢在於創造個性化的 AI。
「在未來,神經網路應用在你的手機和自動駕駛汽車中也可以持續地學習經驗,」他說道。「想像一下:你的電話可以和你交談,並且可以識別你的聲音並進行個性化;或者你的汽車可以根據你的駕駛習慣進行個性化調整。」
※生產級深度學習的開發經驗分享:數據集的構建和提升是關鍵
※「世界第一超算」易主!英偉達GPU加持,Summit超越神威太湖之光
TAG:機器之心 |