當前位置:
首頁 > 最新 > TPU 3.0,Android P……Google帶來了哪些驚喜?

TPU 3.0,Android P……Google帶來了哪些驚喜?

作者 | DavidZh,阿司匹林

出品 | AI科技大本營(公眾號ID:rgznai100)

北京時間 5 月 9 日凌晨, Google I/O 2018 開發者大會的 7000 人會場又一次座無虛席。因為 Google 的「AI First」已經進入第三年,而今年是 AI 落地的關鍵時期,因此 Google 的一舉一動備受關注。

就在大會前夕,Google 宣布將 Google Research 與 Google.ai 合併,推出全新的 Google AI 項目,它將涵蓋包括人工智慧在內的所有前沿技術研究,足見 Google 對 AI 的重視。

在此次大會上,性能大幅提升的第三代 TPU,更加智能的 Google Assistant,帶屏幕的智能音箱,融入了各種 AI 特性的 Android P,加強版的 Google Lens,以及研發了接近 10 年的無人車輪番登場。

Google 持續多年對 AI 的投入,到底能給我們帶來多少驚喜?


在本次開發者大會上,Google 推出了第三代 TPU。據介紹,由 TPU 3.0 組成的 TPU Pod 運算陣列,性能相比上一代提升了 8 倍,可提供 100 petaflops(千萬億次) 的機器學習硬體加速。為了給這個性能怪獸降溫,Google 甚至引入了液冷技術。

而就在前不久,Google 剛剛推出了 TPU Cloud 服務。看來在 AI 晶元領域,Google 是準備大幹一場了。


去年被亞馬遜 Alexa 拉開差距後,Google 用了一年多時間來追趕。現在,智能助理 Google Assistant 已經進入了 5 億台設備,支持 5000 種終端產品。

利用去年實現重大突破的 WaveNet 深度生成模型,新版 Google Assistant 擁有六種聲音可選,聽起來都比現在的版本更加真實自然。美國知名歌手 John Legend 也為 Google Assistant 錄製了自己的聲音版本,不久的將來就能上線。

語音交互上,新版 Google Assistant 支持多輪對話,不用每次都說一遍「Hey Google」喚醒詞,稍微長一點的句子也可以正確理解並給出響應。

Google Assistant 還增加了 Multiple actions 功能, 即一句語音指令中可以同時包含多條任務,Google Assistant 會將不同任務拆解開,分別執行。

在語音交互的基礎上,Google Assistant 擴展了視覺交互能力。首先是 Google 在今年 CES 上跟聯想等硬體廠商合作的 Smart Display 項目,相當於給智能音箱加一塊觸摸屏。不過早在去年 5 月,Amazon 就已經推出了帶屏幕的智能音箱 Echo Show,整整領先了 Google 一年。

現場演示中,這塊屏幕可以播放視頻、顯示菜單和烹飪步驟,看起來比較適合廚房或卧室的使用場景,當然也可以視頻通話。Google 宣布由 JBL、聯想、LG 三家生產的帶屏智能音箱將於今年 7 月開售。

在手機端,Google Assistant 作為智能助理也增加了視覺輔助功能。比如,用語音問及某個歌手時,它會自動顯示歌手的照片和作品鏈接;調節室內溫度時會顯示一個圓形調節控制項。如果用語音喚醒 Google Assistant 叫外賣,也會在手機上顯示出具體食品的圖片信息。

更厲害的是,Google Assistant 還加入了電話預約功能。現場演示中,Google Assistant 分別成功約好了一家理髮店和餐廳。整個流程並不複雜,先由用戶告知 Google Assistant 時間、地點、就餐人數等信息,再由 Google Assistant 跟餐廳的服務員電話溝通並預約。這樣一來,就省去了用戶本人打電話約餐館的時間。

雖然通過電話來預約餐館對人來說並不是一件難事,但是對機器來說卻異常困難。從現場的演示視頻來看,Google Assistant 與接線員的溝通過程十分流暢,這一點實屬不易。


Android 操作系統進入第十年,新的 Android P 還是在小修小改,主要用 AI 來改善電池續航、日常使用效率等體驗。

具體來說,Google 與旗下 AI 子公司 DeepMind 一起開發的 Adaptive Battery 技術,可以學慣用戶使用手機的習慣,從而預測在接下來的某段時間裡哪些高頻應用最可能被啟動,同時忽略那些不太可能用到的應用。Google 聲稱,這個功能減少了 30% 的 CPU 喚醒,從而延長了續航時間。

在 Android P 中,Google 還加入了新的 App Actions 功能。使用搜索框查找內容時,系統會根據相關性和應用使用情況用 AI 來預測用戶的具體需求。比如,搜索打車服務 Lyft,結合時間和地點可能意味著用戶要回家了,從而直接將結果預覽出來,點一下即可叫車。

對於開發者來說,實現這類功能需要藉助新的 Slices API 介面,它可以讓開發者在負一屏、搜索預結果等頁面顯示出 AI 的預測能力。

考慮到開發者對不同介面的需求可能多種多樣,Google 索性開發出了一套 ML Kit 工具包。它允許開發者使用 Firebase 平台自定義機器學習 API 介面。值得一提的是,ML Kit 同時兼容 Android 和 iOS。

與此同時,Google 還啟動了 Android P Beta 測試計劃,率先支持的手機廠商包括 Pixel、Nokia、Essential、小米、OPPO、vivo、OnePlus。四家中國手機廠商將公布各自的測試計劃。


利用機器學習增強手機視覺能力的 Google Lens 今年也得到加強。Google 宣布 Google Lens 將會內置到 LG、小米、一加、TCL 等廠商的系統相機應用中,其中剛剛發布不久的 LG G7 將率先支持。這意味著,這些品牌的默認相機應用也能提供實時拍照翻譯、商品識別等功能了。

具體到新增功能上,Google Lens 支持了 Smart Text Selection,即點選照片中的某一個欄位可以快速翻譯或複製粘貼,而不再局限於文本文檔。

Style match 則是針對穿衣搭配或家居場景,利用機器學習演算法識別攝像頭捕捉到的物體,並根據物體特徵進行相關的商品推薦。


現場,Waymo 提到了自動駕駛汽車需要具備的兩個特性:感知(perception)和預測(prediction)。

具體到自動駕駛的技術選型上,Waymo 仍然堅持激光雷達、超聲波雷達、毫米波雷達、攝像頭等多感測器融合的方案。在行人車輛監測的感知層面,Waymo 利用深度學習演算法將錯誤率降低了 100 多倍。現場圖片顯示,Waymo 的無人車甚至能夠探測到身穿恐龍服裝的行人。

從 2009 年開始路測到現在,Google 的自動駕駛車已經累計完成了 600萬英里的開放道路測試;通過模擬模擬環境訓練自動駕駛演算法的里程數也超過 50 億英里。

得益於 Google 研發的推理處理器 TPU,自動駕駛相關的數據處理、演算法訓練和模型構建在 TPU 上比傳統平台效率要提高 15 倍。

Waymo 表示,深度學習結合其他技術,Waymo 可以實現 Level 5 級別的全自動駕駛。預計 2018 年晚些時候,Waymo 將在亞利桑那州的鳳凰城推出沒有安全監督員的無人車搭乘服務。

從開場到結束,Google 發布的所有產品,推出的所有新功能,都和 AI 密切相關。看上去,Google 的「AI First」戰略改成「AI in All」或許更為合適。

GIF

AI科技大本營

公眾號ID:rgznai100


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 AI科技大本營 的精彩文章:

李飛飛團隊最新論文:如何對圖像中的實體精準「配對」?

TAG:AI科技大本營 |