當前位置:
首頁 > 最新 > 人工智慧能耗問題存挑戰 Qualcomm如何巧妙應對?

人工智慧能耗問題存挑戰 Qualcomm如何巧妙應對?

飛象網訊(六月/文)當下,人工智慧已經深入到經濟和產業的每個細分領域,很多產品也已經具備了人工智慧的能力,這是積極的一面。但同時,也給我們帶來一些嚴峻的問題和挑戰。隨著人工智慧的發展,能源消耗的越來越嚴重,有數據預測到2025年,全球的數據中心將消耗全球所有可用電力的20%。

此外,深度神經網路的能耗與其規模大小也成正比。資料顯示,到2025年,神經網路的繼續發展有望將其規模擴大至100萬億個參數,相當於人類大腦的容量,這樣規模的神經網路將消耗大量能源。人類大腦的能效比當前最優秀硬體的能效要高100倍,因此我們應該從大腦得到啟發,發展能效更高的人工智慧技術。

人工智慧的能耗問題具備兩大挑戰

在Qualcomm技術副總裁韋靈思看來,人工智慧的能耗問題存在兩個重要的挑戰。第一,人工智慧創造的經濟價值和效益必須超過運行這個服務的成本,否則人們將無法盈利,人們開發的這些卓越的人工智慧技術也就無所用處。不管是社交網路上按用戶喜好排序,或者是個性化的廣告和推薦,它的應用成本都需要控制在一定範圍內。此外,人工智慧還被應用到大型的智慧城市和智慧工廠中,同樣需要控制成本。

Qualcomm技術副總裁韋靈思

第二,人工智慧能效問題也是一大挑戰,是因為在邊緣側也就是移動環境中,還存在散熱的限制。比如說,我們不能在手機里運行能耗過高的任務,否則手機就會變得非常熱。但同時,我們需要處理大量的人工智慧工作負載,包括完成非常密集的計算分析任務、處理複雜的並發性即在一段時間內同時完成多項任務,還需要保證實時和始終開啟,移動環境又有多種多樣的限制條件,比如說終端的尺寸很小,又需要保證長久續航以支持全天使用。此外,受尺寸影響,移動終端的內存和帶寬也都有限制。

「所以說,不管是從經濟效益還是熱效率的角度看,我們都必須要降低人工智慧運行的能耗。」 韋靈思總結到:「我認為未來人工智慧演算法將不會由其所能提供的智能多少來衡量,而是要看這種演算法每瓦時所提供的智能多少,這會成為未來人工智慧演算法的重要衡量指標。在此方面Qualcomm擁有很大的優勢,低功耗計算正是我們一直以來所擅長的。」

Qualcomm在終端側讓深度學習更加高效

深度學習是人工智慧發展歷程中的一次重要變革,受神經網路的大幅發展所驅動,深度學習顯著提高了預測的準確性。此外,韋靈思表示我們不應該從聲音、信號等大量原始數據中人工定義特性,而是應該讓演算法從原始數據中自行學習提取特性,這是一個巨大的突破。神經網路的優點還包括,它能夠自動探測物體,非常高效地共享參數,使部分數據更加高效,並且可以在現代硬體上快速執行。

當然,深度學習也有需要改進的方面,在韋靈思看來,最重要的一點是,卷積神經網路使用了太多的內存、計算能力和能源,這是現在急需改善的。此外,神經網路不具備旋轉不變性、不能量化不確定性以及它很容易被輸入側輕微的改變所欺騙等。

為應對這些挑戰,Qualcomm開展了大量的工作。在降低能耗方面,受人類大腦的啟發,Qualcomm早在超過十年前就已經開始了脈衝神經網路的研究,這也是實現低功耗計算的一種方法。現在同樣受人腦的啟發,Qualcomm正考慮利用噪音來實現深度學習方面的低功耗計算。

韋靈思解釋稱:「人腦其實是一個充滿雜訊的系統,它知道如何處理噪音。我相信,我們可以更進一步利用噪音來為神經網路帶來益處。在專業領域,我們將這種方法稱為貝葉斯深度學習,這也是我們實現這一切的重要基礎性框架。通過貝葉斯深度學習,我們把神經網路壓縮得更小,使其可以更高效地運行在驍龍平台上。我們還通過使用這一框架,量化我們需要進行的計算處理的比特位。」

談及這些噪音如何幫助我們進行壓縮和量化時,韋靈思講到,我們將雜訊引入到神經網路,繼而影響到各個參數和連接,然後這些擾動的參數將雜訊傳播到激活節點,也就是各個神經元。如果這些神經元充滿了噪音、不存儲任何信息、或對預測不能發揮任何作用,我們就對其進行裁剪。通過裁剪神經元,神經網路會變得更小,從而在計算機和驍龍平台上也將會運行得更快。

剛剛談到了使用貝葉斯框架進行壓縮與量化,事實上它還可以解決許多其他問題。如果神經網路只進行過面向某一場景的訓練,例如一台自動駕駛汽車只接受過某一城市的相關訓練,現在這台汽車來到另一個新的城市,你可以使用貝葉斯深度學習進行泛化。Qualcomm的思路是,能夠對數據做出解釋的最小、最簡單的模型即為最適合的模型,這就是奧卡姆剃刀。貝葉斯學習還可以幫助我們產生置信估計,即量化神經網路的不確定性。當我們加入雜訊,雜訊將傳播至預測,從而產生預測的分布區間,由此完成對預測置信度的量化。最後,貝葉斯學習可以幫助我們不易遭受對抗攻擊,即通過輸入側的輕微改變來得到不同的預測結果。它也有助於保護用戶的個人隱私,因為數據信息可以轉換為模型參數甚至可以進行重構,使得數據具有隱私敏感度。所以說通過加入雜訊,可以很好地幫助我們保護隱私。總體而言,貝葉斯深度學習可以很好地解決深度神經網路所面臨的諸多挑戰。

「隨著壓縮比越來越大,貝葉斯深度學習相比於其他方法的性能優勢就越明顯,其在移動平台上的運行也更為高效,這就是為什麼我們認為貝葉斯深度學習尤其適合移動場景。」 韋靈思進一步講到。

此外,據介紹,目前Qualcomm異構計算系統中包括了三個組件,分別是CPU、GPU和DSP。超過十年來,在每一個產品研發周期內,Qualcomm都從多個維度持續提升這三大組件。舉例來說,在緩存結構(caching structure)上,Qualcomm不斷優化內存工作方式;持續優化精確性,通過最低的能耗實現對精確度優化;優化計算管理,比如說當有一個計算任務,可以選擇讓GPU、CPU或是DSP完成,或者讓所有組件共同完成。雖然目前只對單一終端上的計算進行管理,但Qualcomm有更遠大的願景,在即將到來的5G時代,Qualcomm將在萬物互聯的環境下,將計算放在由終端及雲端組成的整個網路中運行,為網路邊緣帶來強大的人工智慧系統。」

Qualcomm三層努力加速人工智慧研究

在加速人工智慧研究方面,Qualcomm也做了很大的努力,包括對計算架構、內存層級及使用層面的優化和提升。在計算架構方面,Qualcomm專註於優化指令類型和並行性,以及優化運行計算所需的精確度,貝葉斯深度學習可以幫助實現最佳的運行精確度。同樣重要甚至更為重要的是內存層級。據估計,從DRAM遷移數據或將數據遷移至DRAM的功耗,是ALU運算(ALU Operation)功耗的200倍,因此,需要優化內存層級以降低數據移動的功耗。在使用層面,Qualcomm致力於優化硬體、軟體和編譯器,從而減少計算的冗餘並最大化計算吞吐量和內存帶寬。

韋靈思補充道:「由硬體、軟體和演算法構成的生態系統對我們來說至關重要。高效的硬體將不斷演進,以適應在人工智慧領域出現的全新演算法。」

他進一步講到:「我們關注如何在硬體上更高效地運行卷積神經網路,以及為高效運行神經網路而開發更高效的新硬體。在演算法方面,確保演算法在驍龍平台上的高效運行。這一切都需要通過軟體工具來實現,也就是我們的驍龍神經處理SDK。大家可以將軟體看成是連接硬體和演算法之間的橋樑。比如說,你在驍龍平台上構建你最喜歡的模型,或進行你最喜歡的人工智慧測試,當你將模型放到神經處理SDK中,這些可用的軟體工具將幫助你進行壓縮和量化,從而確保你的模型或測試在驍龍平台上高效運行。」

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 飛象網 的精彩文章:

國行版聯想Moto G6獲工信部入網許可證
果小美髮布聲明:擱淺傳聞不實 目前公司業務發展正常

TAG:飛象網 |