搭載AI內核的麒麟970,晶體管數量達到了55億,將人工智慧拉入平常百姓家
現在的人工智慧浪潮起源與2012的深度學習,其背後擅長並行運算的GPU功不可沒,而現在圍繞著AI加速功能的晶元也越來越多,比如谷歌 TPU ,全新 Tensor Core 結構的英偉達 Tesla V100。不過這些晶元都在伺服器,超級計算機上使用的,並為在家庭中普及,9 月 2 日,在德國柏林舉行的 IFA 2017 展會上,華為正式發布了全球首款移動端 AI 晶元麒麟 970,一舉填補了這一空白
970採用台積電10nm 工藝製造,晶體管數量達到了55億,是蘋果A10處理器的近兩倍,是目前手機SOC中晶體管數量最多的,內部搭載了4 個用於處理重負載任務的 Cortex A73 核心,4 個 Cortex A53 核心,GPU 則為全新一代具有 12 個核心的 Mali-G72 MP12,支持部分5g的全球最高的通信規格 LTE Cat.18/Cat.13基帶。
上述的一些主要部件,並不能消耗55億晶體管的數量,對晶體管數量貢獻最多恐怕是寒武紀神經網路內核。
眾所周知,當前的 CPU 負責通用任務計算,面向指令密集和邏輯控制運算;GPU 則是數據密集型,主要面向向量任務的圖形處理計算。對於人工智慧領域的應用,目前人們面臨的主要任務是對於矩陣乘法的運算,這種任務使用 CPU 和 GPU 來做效率並不高。因此而誕生了專門為矩陣乘法優化的AI晶元,這類晶元在運行特定演算法的時候,效率遠遠高於CPU和GPU。
簡單來說就是,CPU相當於大學生,什麼都會做,但是數量少(核心少),當做簡單的數學題目如加減乘除,就做的慢,GPU相當於小學生,只會做加減乘除,但是數量多,所以做的快,而AI晶元就相當於一堆學過速演算法的小學生,做加減乘除的速度遠遠要比沒學的快
這個神經網路內核是由華為和寒武紀共同研發,並首次將神經網路任務處理的 NPU(Neural Network Processing Unit)計算單元集成於手機SOC中,其加速性能和能效比大幅優於 CPU 和 GPU,為了能夠更高效的協調NPU,970還搭載了為此研發的HiAI 移動計算架構。
目前已經出現被這款晶元優化的應用了——在華為手機的前端 DNN 降噪演算法中,它可以通過深度學習 DNN 演算法,有效抑制非穩態噪音,增強語音信號,可以提高其語音識別在惡劣環境下的識別率。特別是在開車的時候
華為已經開頭了,相信不久的將來將會有更多支持硬體級的AI功能。 mate10買不起,同樣搭載970的榮耀V10將有會是小編的下個手機。
※國產機還是等著吧,谷歌親兒子pixel已經開始推送更新android8.0
※華為有媲美高通的基帶,為何蘋果不採用了
※騰訊大數據顯示iPhone用戶基本沒有房和車而華為用戶多為高學歷高收入人群
※發布會在即蘋果後院起火,品勝起訴蘋果MFI認證為壟斷
※童年時代的夢幻主機ps2
TAG:geekdroid |