Google 發布 AutoML Vision,全自動訓練 AI 無需寫代碼
關鍵時刻,第一時間送達!
還記得去年5月,谷歌大腦團隊對外宣布推出AutoML系統,讓人工智慧自動編寫機器學習程序,試圖使機器學習模型的設計變得更為簡單。短短三個月後,AutoML在一次圖像內容分類的測試中,以82%的準確率擊敗了編寫AutoML的研究人員。
1月17日,基於自身雲平台,谷歌又推出了機器學習系統Google Cloud AutoML,為更多正在嘗試搭建機器學習模型的開發者、分析人員、企業群體,降低了使用人工智慧相關工具和框架的門檻。「目前,全球只有少數企業在ML和AI的研發上投入足夠的人才和預算,而可以創建領先機器學習模型的人才就更是少之又少。即便在有公司能吸引到足夠多的專業人才,但花在構建定製化AI模型上的時間和精力卻非常巨大。」谷歌雲AI研發部負責人李佳提到。
此次,「Vision」(即「視覺」)將成為Cloud AutoML正式推出的第一項功能,使定製化圖像識別機器學習模型的創建過程更為快捷。接下來,谷歌官方表示,將繼續開展在翻譯、視頻、自然語言處理等更多重要領域的研發。
對此,谷歌雲人工智慧和機器學習團隊首席科學家李飛飛在Twitter表示:「在短短的幾個月里,將尖端技術轉化為數百萬的產品,這是一個相當鼓舞人心的旅程!我們希望AutoML Vision是我們客戶的第一選擇。」
Cloud AutoML 的工作原理
https://www.blog.google/topics/google-cloud/cloud-automl-making-ai-accessible-every-business/)
GIF
一是準確性更高。Cloud AutoML Vision基於Google的圖像識別方法,包括遷移學習(transfer learning)、神經架構搜索技術(neural architecture search technologies)等,使得使用者對機器學習相關經驗的要求顯著降低。
二是更快的模型周轉時間。使用Cloud AutoML模型,既能在幾分鐘之內創建一個簡單的ML模型進行AI應用的嘗試,也可以僅用一天時間就能構建好一個完整的商用模型。
三是易用。AutoML Vision提供了一個簡單的圖形化用戶界面用於標註數據,然後將數據轉換成為符合你特定需求的高質量模型。
在AutoML Vision系統中,有一個拖放式的界面,能輕鬆上傳圖像、訓練並管理模型,然後將訓練好的模型直接部署在谷歌雲上。
簡單來講,客戶可以更為快速的提高模型質量,隨後開發者將這些模型轉化成更為簡單的API介面。
據了解,已有超過1萬家企業用戶在使用谷歌雲提供的AI服務,包括Box、勞斯萊斯船業、玩具公司丘比、網上超市奧卡多等。
在服務價格方面,谷歌還未給出明確的答覆,也並未對外進行開放。不過,谷歌雲AI部門產品管理總監Rajen Sheth提到,客戶將根據API介面和計算能力的使用進行付費。此外,客戶將根據谷歌雲平台的隱私政策擁有自己的數據和專有模型。「這個產品給了客戶很大的自主權。」
儘管目前來看AutoML的推出主要針對開發者和獨立軟體提供商,但是,在Sheth看來,「分析師和產品人員也逐漸向這個應用領域滲透。」畢竟,企業中需要處理大量的數據。
對於希望深入研究模型的技術人,谷歌在其AutoML文章中引用了以下參考文獻:
Learning Transferable Architectures for Scalable Image Recognition, Barret Zoph, Vijay Vasudevan, Jonathon Shlens, and Quoc V. Le. Arxiv, 2017.
Progressive Neural Architecture Search, Chenxi Liu, Barret Zoph, Jonathon Shlens, Wei Hua, Li-Jia Li, Li Fei-Fei, Alan Yuille, Jonathan Huang, Kevin Murphy, Arxiv, 2017
Large-Scale Evolution of Image Classifiers, Esteban Real, Sherry Moore, Andrew Selle, Saurabh Saxena, Yutaka Leon Suematsu, Quoc Le, Alex Kurakin. International Conference on Machine Learning, 2017.
Neural Architecture Search with Reinforcement Learning, Barret Zoph, Quoc V. Le. International Conference on Learning Representations, 2017.
Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning, Christian Szegedy, Sergey Ioffe, Vincent Vanhoucke, and Alex Alemi. AAAI, 2017.
Bayesian Optimization for a Better Dessert, Benjamin Solnik, Daniel Golovin, Greg Kochanski, John Elliot Karro, Subhodeep Moitra, D. Sculley. NIPS, Workshop on Bayesian Optimization, 2017
GIF
TAG:CSDN |