當前位置:
首頁 > 新聞 > 回到終端:AI 促進分散式智能落地

回到終端:AI 促進分散式智能落地

雷鋒網按:本文為 AI 研習社編譯的技術博客,原標題 Back to the Edge: AI Will Force Distributed Intelligence Everywhere,作者為 azeem。

翻譯 | 江舟        校對 | Lamaric       審核 | Lamaric

在第一部分中,我們探討了人工智慧如何加速了對計算周期的需求。

在這一部分中,我們將探討人工智慧是如何推動這兩個轉變:邊緣處理的復甦,以及新處理架構的到來。

本文受到了 NewCo Shift 的大力協助。

雲端將蓬勃,邊緣將綻放

1996 年底時,康柏公司的兩名高管 George Favaloro 和 Sean O"Sullivan 意識到無處不在的互聯網連接存在會改變信息處理的位置。計算過程可以在通過互聯網訪問的伺服器上進行,而不是在辦公室伺服器室或桌面上。這種被他們稱為「雲」的計算方式在發生著這種轉變。不過,這個詞(在那時)並沒有被堅持下去,那之後,康柏在 2002 年被惠普吞併。

但是,他們確定的關於「雲」的主題卻紮根了下來。2006 年,當時的谷歌首席執行官埃里克施密特說:「我認為人們並不真正了解這個機會究竟有多大,它的前提是數據服務和架構應該在伺服器上。我們稱之為雲計算,他們存在於某個『雲』上」。

從那時起,雲計算已成為 IT 企業發展最快的領域之一。亞馬遜的 AWS 業務部門成立於 11 年前,它有著超過 120 億美元的收入。雲計算為軟體帶來了全新的商業模式:軟體即服務模式。這個模式創建了 Salesforce、Workday 和 Zendesk 等巨頭。

今天,許多企業計算都發生在私有或虛擬私有雲的遠程數據中心上。當然,企業計算是當下很重要的。我們有著智能設備,比如智能手機,平板和功能強大的筆記本電腦。然而,我們作為消費者體驗的大部分聰明的東西,比如在 Facebook 上的排名內容,亞馬遜上推薦的產品,Siri 中響應的口頭命令,都發生在互聯網這龐然大物擁有的基礎設施的雲端。

這種向「雲」的轉變並不是計算中的第一次變化。從大型機和小型計算機轉向台式個人計算機已經將處理器周期從受到嚴密保護的計算機房轉移到數百萬用戶的個人辦公桌上。如果你願意,這就是計算的邊緣化。這種轉變始於 20 世紀 70 年代中期,並且隨著 DOS 和 IBM PC 標準的發展而加速到 80 年代。

互聯網的到來使我們能夠將計算轉回「雲」,遠離網路邊緣和用戶的桌面。但即將發生的人工智慧海嘯將使雲計算能力的增長,以及計算能力的轉變,從雲端又回到網路邊緣。

猛烈的發展。為什麼?

最終,你要在被需要的地方提供智能。隨著一切變得聰明,從燈泡到相機,再到簡單的感測器,他們需要有自己的能力來決定做什麼並最終從身邊環境中學習。

為了大大簡化過程,一個智能設備需要做兩件事。首先是學習(或接受訓練)其環境。第二個是弄清楚(或推斷)在任何階段要做什麼。

但今天的 AI 系統在設備上很少有這些東西。在大多數情況下,AI 系統(如 Amazon Echo)將數據發送回雲伺服器進行處理和思考。你的 Echo 就像鸚鵡一樣回應,它重複著在全球數據中心的某個伺服器上為它計算出來的洞察力。

此外,這些設備不會從他們的環境或經驗中學習任何東西。學習過程是發生在雲端的。目前,他們通過基於雲的人工智慧的偶爾更新而變得更聰明。

智能需要本地化的原因是多方面的。一個原因是延遲。如果需要快速做出決定,那麼將數據發送回雲端的過程可能對整個過程是有害的,這是因為發送回雲端最有可能通過移動網路並需要等待響應。

一個處在 4G 網路的歐洲的設備要連接到數據中心,其延遲可能為 50 毫秒。如果要發送大量的數據(比如來自視頻流的剪輯),那麼總的傳輸時間將會達到以秒為單位級別。即使機器視覺過程只需要幾毫秒,整個端到端交易也可能會持續一兩秒鐘。

對於許多應用來說,延遲是不可接受的。現階段沒有哪種運輸方式可以依靠雲端,無論自動駕駛汽車或無人機。因為汽車行駛速度太快,而行人太弱。機器人外科醫生也不能容忍這種延遲。患者的代謝紊亂不會等待 IP 數據包穿越大西洋到亞馬遜網路服務的伺服器。如果智能門鈴,智能指甲鉗或智能微波爐需要在響應簡單的請求之前有上 1-2 秒的延遲,消費者將變得非常不滿。

第二個原因是設備很快就需要變得足夠強大才能在網路邊緣學習。為什麼?因為這些設備將在原地使用,並且他們將越來越多地進行環境化。放置設備的環境將是其操作的一個關鍵輸入。我知道這在現如今聽起來很奇怪,尤其想到身邊相對愚蠢的設備時。但自治的本質就需要去學習和適應本地環境。我們希望自動駕駛汽車能在行駛時自動處理在巴黎,波特蘭或浦那的道路,這種處理不是基於在帕洛阿爾托廣闊的林蔭大道上學到的一些柏拉圖式的理想。對於自動駕駛汽車來說是正確的東西,也將會被運用於自動護理器,自動吸塵器和自動圖書管理器。

然而現如今大部分 AI 系統都沒有這種智能水平。即使他們可以推斷設備上的行為,他們也很少了解設備上自身的環境。大部分學習都發生在雲端上面。

是的,推理預測(即讓人工智慧在給定環境的當前狀態下預測下一步該做什麼)顯然是一個推動邊緣的候選者,但這也成為推動模型訓練(學習)的必要條件

邊界情況下的訓練

人工智慧的訓練階段傳統上需要比推斷或預測階段更多的處理能力。任何父母都知道這一點,教孩子如何打開門(訓練階段)要比他們知道之後再去打開(推理階段)要困難得多。

舉個例子,在 2011 年,Google Brain 通過觀看 YouTube 視頻進行了訓練,來識別貓和人,它在谷歌的一個數據中心運行著2000 個 CPU。許多開發人員在雲中訓練模型,在那裡可以存在機架式 GPU,然後將計算成本較低的推理模型推向邊緣更便宜的設備。

但這已經開始發生了變化。蘋果公司的 iPhone 在夜間使用空閑 GPU 周期來了解你的圖片。谷歌最近推出了「聯合網路學習」,它可以實現:

更智能的型號,更低的延遲和更低的功耗,同時還確保隱私性。此方法還有另一個直接的好處:除了提供共享模型的更新外,更新後的模型可以被立即使用,並通過你使用手機的方式為個性化體驗提供動力。

谷歌應用這些智能的一個例子是他們應用在 GBoard Android 鍵盤上的打字預測。所有用戶體驗到的將是根據其他用戶行為進行改進後的預測。

我們可能會看到的是一個多方面的基礎設施,其中學習過程發生在網路邊緣和雲端上。這種聯合網路學習將是很有效的。它將允許網路從數千(或數百萬甚至數十億)邊緣設備的經驗和他們的環境經驗中學習。但是,在聯合環境中,邊緣設備可以進行一些學習並且有效率地將增量(或權重)發送回雲端,其中的中心模型可以被更有效的更新,而不是將原始經驗數據既費力又迂腐地發送回雲進行分析。

這種機制可以嵌入有損的方法,比如差分隱私,來確保資料庫中的聚合數據不會泄露關於特定個人或他們習慣的信息。但這仍然允許捕獲數據中的重要模式,也同時保護個人隱私。

從雲轉移到雲和邊緣的智能轉移軌跡也會產生其他影響,包括必須製造的晶元類型。

硅在新架構上的應用

自英特爾 4004 型處理器於 1971 年推出以來,英特爾的通用微處理器,即中央處理器(或稱 CPU ) 一直主導著技術行業。幾十年來,英特爾、通用 CPU 和摩爾定律一直是三巨頭。通用 CPU 為我們提供了非常好的服務。它允許標準操作系統(首先是 DOS,然後是 Windows ) 的出現,這創建了一個公共平台,而它反過來又降低了 IT 開發人員和用戶的成本(它還創造了 Wintel 壟斷,這種壟斷首先不是因為反壟斷,而是因為互聯網和行動電話的出現而被打破)。

然而,由於機器學習的差異化需求,事實證明 CPU 性能太普通了。更糟糕的是,製造業和量子物理的局限使得摩爾定律的改進停滯不前。2016 年 8 月份的《自然》雜誌的封面上以此為標題。業內大部分人都同意。

事實上,目前人工智慧投資的繁榮是由通用 CPU 的一個轉變所推動的。這是在 2012 年由一個神經網路觸發的,這個神經網路運行在一對圖形處理單元(GPU 等)而不是一組 CPU 上。

在研究員 Alex Krizhevsky 和他的同事們贏得 2012 年 Imagenet 競賽後,深度神經網路與 GPU 配對的優勢變得顯而易見。其餘都是近期的歷史。

如果說前 30 年的計算能夠在通用 CPU 上創造價值,未來幾十年將在更複雜的處理體系結構生態上創造價值。其中一些已經開始出現:Nvidia 的 GPU 及其 CUDA 生態系統;谷歌的 TPU 晶元和 Tensorflow 控制軟體;基於人工智慧的 FPGAs(可在微軟的 Azure 雲中找到);新的神經形態晶元;和快速接近的量子計算。

從電子遊戲到數學矩陣

......


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷鋒網 的精彩文章:

ARM繼續加碼物聯網領域,或將以6億美元收購數據分析公司Treasure Data
金融科技引爆GAIR大會 產學研三界共議創新發展之路

TAG:雷鋒網 |