谷歌重磅發布「雲端人工智慧晶元」,正式宣布整體戰略大變革
如約而至,谷歌開發者大會今日正式開幕。更不出意料的是,谷歌首席執行官 Sundar Pichai關於將重心從移動互聯領域轉向人工智慧領域的判斷幾乎滲透了開幕主旨演講的每一個細節。
在開幕主旨演講中,Sundar Pichai正式宣布現已將整體戰略從「移動優先」轉變為「AI優先」。因此,谷歌搭建了全新的AI優先型數據中心,並在 2016 年發布專門為機器學習定製的TPU(張量處理單元)。TPU與CPU、GPU相比,效率提高了15-30倍,能耗降低了30-80倍。
圖丨谷歌於2016年發布的TPU
事實上,TPU已經部署到了幾乎所有谷歌的產品中。不論你使用 Google 搜索、還是與 Google Assistant 對話,甚至在AlphaGo與李世石的圍棋大戰中,TPU也起到了關鍵作用。
一般而言,機器學習分為兩部分:訓練(Train)與應用(Inference)。通過訓練來建立神經網路,要求很強大的計算能力;應用則是去完成分辨圖片上是貓是狗等具體任務。而 TPU 主要是用來優化應用端的,而訓練端目前還是需要使用GPU。比如,谷歌目前每個機器翻譯模型,都需要 100 個 GPU 上花一周時間去完成 30 億個詞語的訓練。
圖丨機器學習分為兩部分
谷歌今天發布的Cloud TPU則是同時針對訓練和應用兩方面。全新的Cloud TPU擁有四個處理晶元,每秒可完成180 tflops計算任務。將 64 個 Cloud TPU 相互連接可組成谷歌稱之為Pod的超級計算機,Pod將擁有11.5 petaflops的計算能力(1 petaflops為每秒進行1015次浮點運算)——這對AI領域的研究來說將是非常重要的基礎性工具。
圖丨谷歌最新發布的Cloud TPU及以其為基礎搭建的Pod
之所以將其稱之為 Cloud TPU 是因為這些全新硬體將加入谷歌雲計算平台,並整合進谷歌計算引擎(Google Compute Engine)。谷歌要打造全世界最好的機器學習計算平台,所以也希望為開發者們提供最好、最廣泛的硬體選擇,從CPU、到 GPU(包括 Nvidia 上周最新發布的 GPU 產品)、再到 TPU。
目前,谷歌已將所有人工智慧相關工作全部納入新建立的Google.ai,目的是集中公司內部所有優勢資源與人力來研發真正能造福人類的AI技術。Google.ai將聚焦三個方面:從事最前沿的技術研發、提供最好的軟硬體工具、探索AI的實際應用。
此外,谷歌還發布了一個全新版本的TensorFlow,這個專門為移動設備開發的版本名為TensorFlow Lite——這個全新的程序集允許開發者們編寫更為簡潔的深度學習模型,從而可以在 Android 智能手機等移動設備上運行。
由於谷歌已經開放了眾多在 Android 平台上運行的 AI 相關服務,也確實有必要開發一個更為精簡、高效的全新架構來滿足在移動設備上運行的需要。谷歌將開源 TensorFlow Lite,並在今年晚些時間開放 API 埠。
講完主要的技術,我們接下來介紹下此次大會推出的其中一些應用層面的新產品。其中頗為令人關注的是一款名為Google Lens的新功能。簡單而言,Google Lens能夠基於用戶正在查看的內容、上下文的信息以及可操作的選項,從而為用戶更詳細地介紹和解讀手機攝像頭裡面幾乎所有的內容。
在其主旨演講中,Sundar Pichai 介紹了 Google Lens 項目,乍一聽上去這很像當年的 Google Glass 技術。通過這一技術,用戶可以將Android設備的相機指向某物,無論是花、餐廳還是Wi-Fi網路名稱,Google Lens都將為用戶提供相關正在查看的更多信息。
圖:在演示中,Sundar Pichai展示了Google Lens能夠立即識別出花朵的圖像
而在一個演示中,Google Assistant 使用 Google Lens 的技術將日語翻譯成英文,因為相機指向了日文標誌。 Google Assitant 還能使用 Google Lens 技術幫助用戶識別電影,並提供不同的服務選項,包括購買門票、為用戶日曆添加電影時間等。
圖丨Google Lens在讀取圖片中的信息後將手機自動接入相應Wi-Fi
然而,Google Lens演示中最令人興奮的案例卻只是一張寫有Wi-Fi網路名稱和密碼的照片。用戶只需將手機相機指向這張照片,Google Lens就可將手機設備連接到網路,免去了中間一系列的繁瑣步驟。
圖丨谷歌聲稱,其圖像識別技術比人類識別更準確
據 Sundar Pichai 透露,Google Lens 功能首先在 Google Assistant 和 Google Photos 應用中推出,然後再在其他項目中推出。
看到這裡,很多iPhone用戶就會問:「這和我們幾乎沒有任何關係。」錯了!這同時也驗證了之前的謠言是真的:谷歌宣布,Google Assistant 將作為獨立的應用程序登錄蘋果的 iOS 系統,但問題在於, Google Assistant 將無法進行 Android 設備上的全部功能操作。即便如此,這也是令人匪夷所思的一大驚喜了。
此外,Google Photos 在今天也帶來的重大更新。作為谷歌近年來最為熱門的應用,Google Photos的發展速度已經遠遠超過了 YouTube、Gmail 和Chrome——全球範圍內每月活躍用戶已經超過了 5 億人,每天的照片和視頻上傳量也已經超過了 12 億次。
不僅如此,在與蘋果的iCloud、亞馬遜和Facebook相比,Google Photos也表現出很大的優越性,不僅提供免費的高解析度存儲服務,搜索和分類功能也是十分的智能,更有意思的是,它的短片製作工具可以將照片或視頻直接剪輯成迷你電影。
雖然這些服務已經做得足夠好了,但谷歌明顯還不滿足,他們認為在照片分享部分仍有許多尚待解決的痛點,而這些也就是 Google Photos 團隊下一個主攻的方向。
圖丨Google Photos 團隊成員(從左到右)Aravind Krishnaswamy,James Gallagher,Anil Sabharwal,Leslie Ikemoto和David Lieb
在今天的 Google I / O 2017 開發者大會上,Google Photos 副總裁 Anil Sabharwal 公布了 Google Photos 的三大更新:照片分享建議、Photo Books和新增的Google Lens功能。其中,谷歌非常貼心推出的「Photo Books」實體書製作服務,可以將用戶手機中精心選擇的照片列印成冊,價格大概為平裝版 9.99 美元,精裝版 19.99 美元。
圖丨Google Photos 副總裁 Anil Sabharwal
根據大會現場所發布的信息,Google Photos照片建議分享功能是基於人工智慧所開發的,最明顯的變化是在Google Photos應用中新加入的「分享」的標籤。根據現場視頻的演示,該功能能夠直接識別出用戶所拍攝的照片中的好友,並向用戶提出建議,將這些拍到他們的照片發送給他們。當對方分享了幾張關於你的照片的話,你也會馬上收到。
在接收到這些照片之後,用戶同樣也可以將它們添加到相冊的「分享庫」中。Google Photos 會自動給出可以分享的照片建議。當然,用戶自己也可以按照相冊、日期或照片中特定事物來指定要分享的照片。
在現場,Anil Sabharwal 是用實際行動來演示了這一功能,他將自己兩個女兒的貼紙板搬上了舞台,並與「她們」合影,然後就很輕鬆地將所有包含兩個小女孩的照片分享了出去。總而言之,照片建議分享這一功能讓照片分享變得更加簡單、智能化。
預計,該功能更新將於幾周後在Android、Web、以及 iPhone 等各大平台推出。
另外,如上面已經提及,谷歌對於機器學習的挖掘還體現在將 Google Lens 功能整合進了Google Photos之中,由此,新版的Google Photos將支持快速識別圖片當中的信息,比如圖片中如果包含有電話號碼,那麼Google Lens就可以自動識別並且進行撥打。
而如果你曾經去過一些景點或者知名場所並拍攝了大量的照片,那麼新版的Google Photos就會記錄下這些信息,當你需要對它們進行了解的時候,只要輕觸一下屏幕上的 Lens 鍵,那麼就會標記出照片中事物的注釋,非常的方便。據悉,該功能將於今年晚些時候推出。
在此次開幕演講中,谷歌還發布了許多其他的產品,比如VR/AR類新產品等。但總而言之,谷歌的戰略十分清晰,利用其 TPU 的強大運算能力,驅動旗下所有產品的更新和迭代,而這些產品都有一個非常明顯的趨勢,即人們越來越不需要用手來使用移動端設備,語音和圖像將慢慢把人手進一步解放出來。
※深鑒科技完成數千萬美元A輪融資!受到全球產業巨頭看重!
※中國、印度或將額完成2030年的氣候指標
※澳洲新能源公司發明人造吹蝕穴技術,利用「潮噴」發電
※人工智慧眾包標記遊戲騷擾,「小學生」們的末日來了?
※《Nano Letter》最新研究:在晶元上構建大腦神經網路
TAG:DeepTech深科技 |