無綠幕MR特效,谷歌開源AI語義分割模型DeepLab-v3+
文章相關引用及參考:映維網
實時視頻分割。
(映維網 2018年03月16日)在3月出我們有報道說谷歌利用AI實現視頻的背景分離,而這涉及到語義圖像分割技術。語義圖像分割是指將諸如「道路」,「天空」,「人」,「狗」等語義標籤分配至圖像中的每一個像素,從而實現一系列的新應用,比如Pixel 2和Pixel 2XL人像模式中的合成淺層景深效果,以及實時視頻分割。
延伸閱讀:沒綠幕也能做MR特效視頻了,谷歌用AI實現背景分離
分配語義標籤需要精確定位對象的輪廓,因此這比其他視覺實體識別任務(如圖像級分類或邊界框級檢測)要求的定位精度更嚴格。好消息是,映維網了解到谷歌日前在GitHub上開源了最新的語義分割模型DeepLab-v3+(應用在Tensorflow)。
這一版本包含基於強大卷積神經網路(CNN)骨幹體系架構構建的DeepLab-v3 +模型,旨在應用於服務終端。另外,谷歌同時分享了他們的Tensorflow模型訓練與評估代碼,以及已經預先經過訓練的Pascal VOC 2012和Cityscapes基準語義分段任務模型。
自三年前Deeplab模型的第一次出現以來,優化的CNN特徵提取器,更好的對象比例建模,對情景信息的詳細同化,改進的訓練過程,以及越來越強大的硬體和軟體帶來了DeepLab-v2和DeepLab-v3的優化。對於DeepLab-v3 +,谷歌添加了簡單而有效的解碼器模塊以細化分割結果,尤其是沿對象邊界。谷歌進一步將深度可分離卷積應用於空間稜錐面緩衝池和解碼器模塊,從而形成更快速,更強大的語義分割編碼器-解碼器網路。
由於方法,硬體和數據集的進步,構建在卷積神經網路之上的現代語義圖像分割系統已經達到了五年前難以想像的精度。谷歌希望與社區分享他們的系統,從而幫助學界和業界的其他團體能夠更容易地進行復刻,同時進一步優化系統,對新數據集進行模型訓練,並且為這一技術設想新的應用。
文章《無綠幕MR特效,谷歌開源AI語義分割模型DeepLab-v3+》首發於 映維網。
※微軟確認HoloLens 2在研發中,或暗示2018年登場
※把Oculus Touch掛接不同物體對象,實現各種創意定位追蹤
TAG:映維VR |