三星提出NPU設計新思路 有望大幅降低移動設備的AI計算功耗
科技
07-04
作為當下最熱的議題之一,人工智慧(AI)總被許多電子產品製造商提起。最為技術領域的一個重大事件,其有望滲透從網路、到家庭、以及移動設備的各個方面。然而受技術的限制,當前大部分商業人工智慧應用仍依賴於雲端後台,對安全、隱私和性能都有一定的影響。有鑒於此,一些移動設備製造商有意為自家產品配備強大的 NPU 計算單元,以提升 AI 的本地體驗,比如三星。
(題圖 via SlashGear)
據悉,該公司最新的工作重點,就是通過較低功耗的神經網路處理器(NPU),實現設備上的 AI 處理。與傳統深度學習模型相比,其通常需要縮小數據的分組。
三星表示,深度學習的數據分組為 32 位,能夠反映傳統的計算模型。對於晶元製造商來說,這顯然需要堆砌更多的晶體管硬體,反之又加大了移動設備的能源消耗。
對於標配大容量電池的移動設備來說,這似乎不是一個大問題。但要讓 AI 普及開來,就必須削減不必要的功耗,以減輕對更重要的應用的影響。
最終,三星得出的結論是,通過簡單地將數據分組為 4 位、同時保持數據的準確性,以降低深度學習的硬體和功耗要求。
這種「量化間隔學習」的方法,有時甚至能夠取得比伺服器傳輸更準確的數據結果。根據該公司的數據,其能夠晶體管的數量需求減少到 1/40 至 1/120 。
這意味著在手機等移動設備上進行 AI 處理將變得更為可行,而無需將負載轉移到遠程伺服器上。其不僅減少了響應延遲,還降低了被竊聽的風險。
遺憾的是,目前三星只宣布了 NPU 背後的技術,而不是 NPU 本身。預計新技術會嵌入到今年晚些時候宣布的下一款 Exynos 晶元中。