當前位置:
首頁 > 最新 > 從ISSCC2018看數字體系結構和系統的發展趨勢

從ISSCC2018看數字體系結構和系統的發展趨勢

本文節選自《IEEESolid-StateCircuitsMagazine》,volume10,issue1:Through the Looking Glass - The 2018 Edition: Trends inSolid-StateCircuitsfrom the 65th ISSCC。作者為ISSCC2018「Digital Systems: Digital Architectures and Systems」分論壇主席Byeong-Gyu Nam。

主流桌面/伺服器產品

高端處理器晶元的主流趨勢依然是增加單片處理器核心數目和提高片上存儲器容量。在今年的大會上,Intel推出了一顆針對伺服器領域的晶元,採用了14nm工藝,集成了28個處理器核心;同時,片上核間互聯採用了2維Mesh網路。

同時,多晶元模組(MCMs,Multichip Modules)也作為一個新興的技術趨勢,在晶元設計工藝發展遲緩的今天,為晶元性能和設計複雜度的持續提升提供動力。例如,這次會議上,AMD就推出了一款包括8x86核心的處理器SoC,並且可以針對伺服器市場或者桌面市場,組成1-4的多晶元模組。該晶元採用14nm FinFET工藝,晶體管個數超過48億。

同時,處理器主頻的提升已經進入瓶頸期,很難再通過提升處理器工作頻率的方法來提升性能。因此在這次大會上,IBM提出了新一代處理器Z14,相比前代產品,L2 Cache增加了50%,L3 Cache增加了一倍,核心數目則增加了1/4,主頻則提高到5.2GHz(相比前代產品提升了200MHz),在微體系結構方面則通過新型分支預測演算法,Cache管理方式等來提高處理器的能效比。

移動端產品

移動端的處理器性能儘管逐年增加,然而今年也到了一個發展的停滯階段。相比較於去年,今年主流工藝依然停留在10nm,核心數目8也與去年保持一致.

最大的變化就是眾多廠商開始在終端處理器晶元中集成加速神經網路計算的協處理器,例如華為的麒麟970等。增加專用的神經網路加速器單元,使得終端處理器晶元相對於前代產品,在處理機器學習相關任務的時候具有更高的能效比。目前主流的終端處理器晶元均採用了CPUs+GPUs+NNPU的異構處理模型。

新一代無線通信技術也是目前的熱點,特別是5G通信,短距離傳輸等,不論是無線通信還是有線通信,每隔5年,傳輸帶寬都將獲得10倍的提升。毫米波通信和Massive MIMO依然是5G的研究熱點;物聯網設備的擴張,也進一步促進了窄帶通信技術的發展。

深度學習

深度學習依然2018年的ISSCC大會最為熱門的話題。相比較於去年大多數論文都在討論卷積神經網路的實現問題,今年則更加關注兩個問題:其一,如果更高效地實現卷積神經網路,特別是針對手持終端等設備;其二,則是關於全連接的非卷積神經網路,如RNN和LSTM等。

同時,為了獲得更高的能效比,越來越多的研究者把精力放在了低精度神經網路的設計和實現,如1bit的神經網路。這些新型技術,使得深度學習加速器的能效比從去年的幾十TOPS/W提升到了今年的上百TOPS/W。有些研究者也對數字+模擬的混合信號處理實現方案進行了研究。對數據存取具有較高要求的全連接網路,有些研究者則藉助3-D封裝技術來獲得更好的性能。

ISSCC2018深度學習相關的研究成果

[HW][ISSCC]009-A Shift Towards Edge Machine-Learning Processing,O. Temam, Google, Paris, France.

[HW][ISSCC]010-QUEST: A 7.49TOPS Multi-Purpose Log-Quantized DNN Inference Engine Stacked on 96MB 3D SRAM Using Inductive-Coupling Technology in 40nm CMOS;K. Ueyoshi1, K. Ando1, K. Hirose1, S. Takamaeda-Yamazaki1, J. Kadomoto2, T. Miyata2,M. Hamada2, T. Kuroda2, M. Motomura1;1Hokkaido University, Sapporo, Japan;2Keio University, Yokohama, Japan

[HW][ISSCC]011-UNPU: A 50.6TOPS/W Unified Deep Neural Network Accelerator with 1b-to-16b Fully-Variable Weight Bit-Precision,J. Lee, C. Kim, S. Kang, D. Shin, S. Kim, H-J. Yoo, KAIST, Daejeon, Korea

[HW][ISSCC]012-A 9.02mW CNN-Stereo-Based Real-Time 3D Hand-Gesture Recognition Processor for Smart Mobile Devices,S. Choi, J. Lee, K. Lee, H-J. Yoo, KAIST, Daejeon, Korea

[HW][ISSCC]013-An Always-On 3.8μJ/86% CIFAR-10 Mixed-Signal Binary CNN Processor with All Memory on Chip in 28nm CMOSD. Bankman1, L. Yang1, B. Moons2, M. Verhelst2, B. Murmann1;1Stanford University, Stanford, CA;2KU Leuven, Leuven, Belgium

[HW][ISSCC]014-A 1μW Voice Activity Detector Using Analog Feature Extraction and Digital Deep Neural Network,M. Yang, C-H. Yeh, Y. Zhou, J. P. Cerqueira, A. A. Lazar, M. Seok,Columbia University, New York, NY

[HW][ISSCC]015-Conv-RAM: An Energy-Efficient SRAM with Embedded Convolution Computation for Low-Power CNN-Based Machine Learning Applications,A. Biswas, A. P. Chandrakasan;Massachusetts Institute of Technology, Cambridge, MA

[HW][ISSCC]016-A 42pJ/Decision 3.12TOPS/W Robust In-Memory Machine Learning Classifier with On-Chip Training,S. K. Gonugondla, M. Kang, N. Shanbhag,University of Illinois, Urbana-Champaign, IL

[HW][ISSCC]017-Brain-Inspired Computing Exploiting Carbon Nanotube FETs and Resistive RAM: Hyperdimensional Computing Case Study,T. F. Wu1, H. Li1, P-C. Huang2, A. Rahimi2, J. M. Rabaey2, P. Wong1, M. M. Shulaker3, S. Mitra1;1Stanford University, Stanford, CA;2University of California, Berkeley, Berkeley, CA;3Massachusetts Institute of Technology, Cambridge, MA

[HW][ISSCC]018-A 65nm 1Mb Nonvolatile Computing-in-Memory ReRAM Macro with Sub-16ns Multiply-and-Accumulate for Binary DNN AI Edge Processors;W-H. Chen, K-X. Li, W-Y. Lin, K-H. Hsu, P-Y. Li, C-H. Yang, C-X. Xue, E-Y. Yang, Y-K. Chen,Y-S. Chang, T-H. Hsu, Y-C. King, C-J. Lin, R-S. Liu, C-C. Hsieh, K-T. Tang, M-F. Chang;National Tsing Hua University, Hsinchu, Taiwan

[HW][ISSCC]019-A 65nm 4Kb Algorithm-Dependent Computing-in-Memory SRAM Unit-Macro with 2.3ns and 55.8TOPS/W Fully Parallel Product-Sum Operation for Binary DNN Edge Processors;W-S. Khwa1,2, J-J. Chen1, J-F. Li1, X. Si3, E-Y. Yang1, X. Sun4, R. Liu4, P-Y. Chen4, Q. Li3,S. Yu4, M-F. Chang1;1National Tsing Hua University, Hsinchu, Taiwan;2TSMC, Hsinchu, Taiwan;3University of Electronic Science and Technology of China, Sichuan, China;4Arizona State University, Tempe, AZ

關於神經網路晶元,《促進新一代人工智慧產業發展三年行動計劃(2018-2020年)》這樣描述:面向機器學習訓練應用,發展高性能、高擴展性、低功耗的雲端神經網路晶元,面向終端應用發展適用於機器學習計算的低功耗、高性能的終端神經網路晶元,發展與神經網路晶元配套的編譯器、驅動軟體、開發環境等產業化支撐工具。到2020年,神經網路晶元技術取得突破進展,推出性能達到128TFLOPS(16位浮點)、能效比超過1TFLOPS/w的雲端神經網路晶元,推出能效比超過1T OPS/w(以16位浮點為基準)的終端神經網路晶元,支持卷積神經網路(CNN)、遞歸神經網路(RNN)、長短期記憶網路(LSTM)等一種或幾種主流神經網路演算法;在智能終端、自動駕駛、智能安防、智能家居等重點領域實現神經網路晶元的規模化商用。

歡迎討論交流

研究領域包括集成電路、無線通信等,涉及深度學習加速器、SoC設計空間探索、多核任務調度和新一代無線通信系統實現;具有65nm、40nm成功流片經驗,在研項目包括28nm、16nm等。

中國科學院自動化研究所國家專用集成設計工程技術研究中心


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 紫冬芯青年 的精彩文章:

TAG:紫冬芯青年 |