Google展示AI新實力:第二代TPU、AutoML以及一堆新功能
炸了!2017 Google I/O開發者大會北京時間昨晚召開,Google帶來一整晚密集的信息發布,也再次彰顯了Google在人工智慧方面的實力。
從移動優先轉變為AI優先的Google,在I/O大會的首日幾乎所有話題都跟人工智慧有關,量子位也對重點內容進行梳理如下。
核心要點:
第二代TPU發布,以及TPU研究雲
為移動設備優化的TensorFlow Lite
AutoML強化演算法,讓神經網路設計神經網路
Google.ai上線,所有AI成果都在這裡展示
相關數據:
月活安卓設備已達20億部
5億活躍的Google相冊用戶
Google地圖每日導航超過10億公里
人們每天觀看10億小時YouTube視頻
以下是詳細解讀。
CEO:使AI觸手可及
已經在Google工作13年的現任CEO Sundar Pichai首先登台。量子位把Pichai的開篇演講摘要還原如下:
谷歌CEO Sundar Pichai
我們正在目睹計算領域的新轉變:從移動優先到AI優先的世界。和以前一樣,這迫使我們重新構想我們的產品,提供更自然、更無縫的交互方式。
所有的進步需要正確的技術架構。去年的I/O,我們推出第一代TPU,今天我們要發布下一代TPU:雲TPU。新TPU對推理和訓練都進行了優化。
我們認為,如果科學家和工程師們可以在指尖上,擁有更好、更強大的計算工具並展開研究,複雜的社會問題將有巨大的突破。
這也是Google.ai的驅動力。
我們希望讓神經網路的創建變得更簡單。現在設計一個神經網路非常耗時,所以我們創建了AutoML,可以讓神經網路來設計神經網路。我們希望AutoML抵得上幾個博士,並在三五年內滿足更多開發者的需求。
看到AI已經開始逐漸實用令人激動,但真正要抵達AI優先的世界,還有很長的路要走。在AI普及化方面我們的工作越多,每個人就能越快受益。
第二代TPU
第一代TPU在去年的谷歌I/O大會上發布,用於運行已訓練完成的機器學習模型。而新一代晶元可同時支持模型的訓練和學習。這款晶元帶來了每秒180萬億次浮點運算的計算性能。
第二代TPU被稱作「雲TPU」,將通過谷歌雲平台向所有人開放。谷歌雲平台的開發者仍可以使用傳統晶元,例如英特爾Skylake或英偉達Volta GPU去進行設計。
雲TPU的推出再次表明,谷歌正在利用領先的技術,與公有雲行業的其他對手實現差異化發展。
谷歌CEO皮查伊在I/O大會的主題演講中表示:「我們希望谷歌雲成為機器學習領域最優秀的雲。這為重大進步打下了基礎。」
為了使計算性能更強大,谷歌開發了訂製的超高速網路,將64顆TPU連接至同一台機器學習超級計算機。這台超級計算機被稱作「TPU艙」,帶來了每秒11.5千萬億次浮點運算的能力,可用於訓練單一的大型機器學習模型,或多個較小的模型。
為了證明TPU艙的性能,谷歌表示,如果想要訓練最新的大規模翻譯模型,那麼使用32顆全球最強大的商用GPU需要一整天時間。作為對比,TPU艙只需1/8的性能,就能在6小時內完成對該模型的訓練。
單個的雲TPU和完整的TPU艙均支持谷歌開源的TensorFlow機器學習系統。
第一代TPU於兩年前開始在谷歌公司內部部署,並被用在谷歌的多款產品,例如谷歌搜索、基於機器學習的谷歌翻譯、谷歌語音識別,以及谷歌照片之中。
谷歌大腦高級研究員Jeff Deam本周表示,谷歌仍在使用CPU和GPU去訓練機器學習模型。不過他預計,未來谷歌將越來越多地使用TPU。
與此同時,谷歌還發布了「TensorFlow研究雲」。這是由1000顆雲TPU組成的簇,在滿足某些條件的情況下谷歌將免費提供給研究者使用。如果希望使用,那麼研究者必須同意公開發表研究成果,或許還需要開源研究中的相關代碼。
谷歌推出TensorFlow研究雲的目的是加速機器學習的研究進展,並計劃將其分享給哈佛醫學院等學術機構。
對參與非公開研究的人士,谷歌計劃啟動雲TPU Alpha項目。
TensorFlow Lite
在I/O上談到Android的未來時,谷歌工程副總裁宣布,他們將推出一個專門為移動設備而優化的TensorFlow版本,稱為TensorFlow lite。
用這個新框架,開發者可以創造更簡潔的深度學習模型,讓它們運行在Android智能手機上。不過,深度學習的訓練過程還是需要在雲端完成。
谷歌打算今年晚些時候推出TensorFlow lite API並開源。
Facebook今年F8開發者大會發布的Caffe2,和去年推出的Caffe2Go,也是這個思路。
讓AI設計AI
谷歌想讓AI變得更加「平易近人」,簡化神經網路模型的建造過程是個好辦法。
CEO劈柴哥在官方博客上說,現在,設計神經網路非常耗時,對專業能力要求又高,只有一小撮科學家和工程師能做。為此,谷歌創造了一種新方法:AutoML,讓神經網路去設計神經網路。
谷歌希望能借AutoML來促進深度學習開發者規模的擴張,讓設計神經網路的人,從供不應求的PhD,變成成千上萬的普通工程師。
手動設計神經網路的難點在於,所有可能的模型都有著巨大的搜索空間,一個典型的10層神經網路,變化形式高達約1010種。
谷歌耗費數年探索出的GoogleNet網路架構
在AutoML中,一個主控的神經網路可以提出一個「子」模型架構,並用特定的任務來訓練這個子模型,評估它的性能,然後,主控收到反饋,並根據反饋來改進下一個提出的子模型。
這個過程,簡單來說就是:生成新架構-測試-提供反饋供主控網路學習。在重複上千次後,主控網路學會了哪些架構能夠在已知驗證集上得到更高的準確率。
谷歌用了兩個經常作為基準的數據集來測試他們的模型,一個是圖像識別領域的CIFAR-10,另一個是語言處理領域的Penn Treebank。在兩個數據集上,自動設計的神經網路準確率都能與頂尖人類專家設計的網路媲美。
兩個用於在Penn Treebank上預測下一個詞的神經網路:左圖出自人類專家之手,右圖由演算法自動設計
要深入了解自動搭建神經網路的演算法,可以看看谷歌今年的兩篇會議論文:
進化演算法:
Large-Scale Evolution of Image Classifiers
https://arxiv.org/abs/1703.01041
Esteban Real, Sherry Moore, Andrew Selle, Saurabh Saxena, Yutaka Leon Suematsu, Quoc Le, Alex Kurakin. International Conference on Machine Learning, 2017.
強化演算法:
Neural Architecture Search with Reinforcement Learning
https://arxiv.org/abs/1611.01578
Barret Zoph, Quoc V. Le. International Conference on Learning Representations, 2017.
其他
這次I/O大會還有很多其他有意思的看點,這裡精選一些。
各種數字
月活安卓設備已達20億部,還有5億活躍的Google相冊用戶,每天產生12億張照片或者視頻。Google地圖每日導航超過10億公里。Google Drive雲存儲擁有8億用戶。人們每天觀看10億小時YouTube視頻。
Lens
點擊播放 GIF/1227K
Google在虛擬助理服務中,加入Lens(鏡頭)功能。在這個功能的幫助下,只需要手機攝像頭一照,你就能知道面前是什麼花,街對面的餐館怎麼樣等信息。這是一個結合了AI、AR、機器學習、計算機視覺等技術的功能。
智能郵件回復
安卓和iOS平台的Gmail郵件客戶端,有了一個名為Smart Reply的自動回復功能,可以基於收到的郵件,給出最多三種自動回復。
語音助手
Google Assistant虛擬助手也在iPhone上正式發布。
免費通話
藉助Google Home,兩個用戶之間可以展開免費通話,就像新一代座機。
照片分享
Google Photos現在可以提供分享建議,例如哪些照片應該分享,可以與誰分享等等。
視頻打賞
看YouTube視頻時,付費使用Super Chat功能,就能把你的評論突出顯示。
VR眼鏡
Google正與合作夥伴一起推出獨立的VR眼鏡,以後無需電腦或手機,所有的VR體驗都能在眼睛中處理完成。
找工作
Google搜索可以給你提供附近的工作招募信息。
Android Go
這是一個為低連接設備推出的產品。
室內導航
Google發布了VPS,視覺定位服務。讓用戶可以使用Tango AR平台進行室內的導航定位。
【完】
掃碼強行關注『量子位』
追蹤人工智慧領域最勁內容
※聯動上演「四城記」搜狗2017移動營銷全國峰會全面開啟!
※阿里巴巴Q4財報全面超預期,收入增幅創IPO以來最高
※OPPO A77發布 主打美顏自拍/售價約2500元
※思美人手游劍尊職業介紹 劍尊強不強
※網路設備生產商思科稱將再裁員1100人
TAG:TechWeb |