當前位置:
首頁 > 最新 > 谷歌發布MobileNetV2:新一代移動端計算機視覺網路

谷歌發布MobileNetV2:新一代移動端計算機視覺網路

AiTechYun

編輯:yuxiangyu

去年,谷歌發布了MobileNetV1,這是一個通用的計算機視覺神經網路,用於支持在移動設備上分類,檢測等等。在個人移動設備上運行深度神經網路的能力改善了用戶體驗,可以隨時隨地訪問,並為安全、隱私和能耗帶來了額外的優勢。隨著新應用的出現,用戶可以與真實世界進行實時交互,因此需要更高效的神經網路。

今天,我們很高興地宣布,MobileNetV2將助力下一代移動視覺應用。MobileNetV2相對於MobileNetV1的重大改進,並推動了移動視覺識別技術的發展,包括分類,對象檢測和語義分割。MobileNetV2作為TensorFlow-Slim圖像分類庫的一部分發布 ,你可以立即開始在Colaboratory中探索它 。或者,你也可以使用Jupyter下載,並在本地探索它。

MobileNetV2也可作為TF-Hub上的模塊使用,預訓練檢查點可在Github上找到。

Github:https://github.com/tensorflow/models/tree/master/research/slim/nets/mobilenet

MobileNetV2繼承了MobileNetV1的思想,使用深度可分離卷積結構作為構建模塊。而MobileNetV2引入了兩種新的功能:層之間的線性瓶頸;瓶頸之間的連接捷徑(shortcut)。基礎架構如下所示:

MobileNetV2架構,藍色塊表示複合卷積構建塊。

直覺是,瓶頸對模型的中間輸入和輸出進行編碼,而內層封裝了模型從低級概念(如像素)轉換為更高級別描述符(如圖像類別)的能力。最後,與傳統的殘差連接(residual connections)一樣,而這個「捷徑」可實現更快的訓練和更高的準確性。

更多細節:https://arxiv.org/abs/1801.04381

與第一代MobileNets比較

總體而言,MobileNetV2模型在整個延遲範圍中實現相同精度更快。特別是,新模型使用的運算(operation)減少了2倍,所需參數減少了30%,在Google Pixel手機上的速度比MobileNetV1機型快30%至40%,同時實現了更高的精度。

MobileNetV2提高了速度(縮短了延遲)並提高了ImageNet Top 1的準確性

MobileNetV2是對目標檢測和分割的非常有效的特徵提取器。例如,對於檢測任務來說,與新推出的SSDLite搭配時,同等準確性,新模型要比MobileNetV1快大約35%。我們已經在Tensorflow對象檢測API中開源了這個模型。

為了實現設備級的語義分割,我們使用MobileNetV2作為近期發布的DeepLabv3簡化形的特徵提取器。使用語義分割的基準PASCAL VOC 2012,我們最終的模型獲得了與使用MobileNetV1作為特徵提取器相似的性能,但使用參數少5.3倍,運算減少5.2倍。

正如我們所看到的,MobileNetV2提供了一個非常高效的移動端模型,可以用作許多視覺識別任務的基礎。我們希望通過將它分享給更廣泛的學術和開源社區,攜手推進研究和應用程序的開發。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 AiTechYun 的精彩文章:

谷歌開源其語義圖像分割模型DeepLab-v3+
谷歌Tacotron進展:使用文字合成的語音更加自然

TAG:AiTechYun |