當前位置:
首頁 > 新聞 > Google AI:機器學習預測場景深度圖,模擬人眼更進一步

Google AI:機器學習預測場景深度圖,模擬人眼更進一步

Google AI:機器學習預測場景深度圖,模擬人眼更進一步

【新智元導讀】谷歌近日推出了在計算機視覺領域模擬重建人類視覺的新模型,與以往方法不同的是,新模型利用AI,通過普通Youtube視頻預測深度圖,可以在場景內的攝像頭和人同時運動的複雜情況下生成自然視頻。

人類的視覺系統具有非凡的能力,可以從2D投影中理解3D世界。即使在包含多個移動物體的複雜環境中,人也能夠對物體的幾何形狀和深度的排序進行可行的解釋。長期以來,計算機視覺領域都在研究如何通過2D圖像數據計算重建場景的幾何特徵,來實現和人類類似的能力,但在許多情況下,仍然難以實現具備充分魯棒性的重建。

當攝像頭和場景中的物體都在自由移動時,是實現重建的最困難的情況。這種情況混淆了基於三角測量的傳統3D重建演算法,該演算法假設可以同時從至少兩個不同的觀察點觀察到相同的對象。滿足這個假設需要一個多攝像頭陣列,或者單攝像頭移動,但場景目標本身是靜止狀態。因此,現有的大多數方法要麼需要過濾掉移動的目標(將移動目標的深度固定為「零」),要麼直接忽略移動目標(會導致深度值發生錯誤)。

Google AI:機器學習預測場景深度圖,模擬人眼更進一步

左圖:傳統的立體設置假設至少有兩個觀察點在同時捕捉場景。右圖:我們考慮攝像頭和拍攝對象都在移動的情況。

我們通過基於深度學習的方法來解決這個基本問題,該方法可以從普通視頻中生成深度圖,場景中的攝像頭和主體目標都可以自由移動。模型從數據中學習人體姿勢和形狀的先驗知識,無需直接3D三角測量。儘管最近使用機器學習進行深度預測逐漸興起,但這項工作是第一個針對同時在攝像頭和目標都在運動的狀態下的基於學習的方法。

本研究中的觀察目標是人類,人類是增強現實和3D視頻效果的有趣目標。

Google AI:機器學習預測場景深度圖,模擬人眼更進一步

我們的模型可以預測深度圖(右圖,離攝像頭越近,圖中越亮),場景中的人和攝像頭都在自由移動。


訓練數據

我們以監督學習的方式訓練深度預測模型,該模型需要通過移動的攝像頭捕獲的自然場景視頻以及精確的深度圖。關鍵問題是從何處獲取此類數據。綜合生成數據需要對各種場景和自然人類行為進行逼真的建模和渲染,這是很困難的任務。

此外,針對這樣的數據訓練的模型可能難以推廣到真實場景中。另一種方法可能是用RGBD感測器(如微軟的Kinect)記錄真實場景,但深度感測器通常僅限於室內環境,而且要面臨3D重建上的一系列問題。

我們利用現有的數據來進行監督學習:即YouTube視頻,視頻中的人們通過自己定格在各種自然姿勢,模仿人體模特效果,而手持攝像機則在現場記錄。

因為整個場景是靜止的(只有攝像機在移動),所以基於三角測量的方法是行得通的,可以獲得包括其中人物在內的整個場景的精確深度圖。我們收集了大約2000個這樣的視頻,涵蓋了各種逼真的場景,場景中的人按照不同的分組配置自然分布。

Google AI:機器學習預測場景深度圖,模擬人眼更進一步

Google AI:機器學習預測場景深度圖,模擬人眼更進一步

人們在攝像頭在場景中移動時模仿人體模特,我們將其作為訓練數據。我們使用傳統的MVS演算法來估計深度,並在深度預測模型的訓練中將其用於監督。

推斷移動中的人的場景深度

Mannequin挑戰視頻對移動中的攝像機和「定格」的人進行深度監控,但我們的目標是利用移動的攝像頭和移動的人來處理視頻。我們需要構建網路輸入來彌補這一差距。

一種可能的方法是為視頻的每一幀都進行深度圖推斷(也就是對模型的輸入相當於單幀圖像)。雖然這種模型改進了用於深度預測的最先進的單幀方法,但是我們可以通過來自多幀的信息組合來進一步改善結果。比如運動視差,即兩個不同視點之間的靜態物體的明顯的相對運動,就對深度推斷提供了有力線索。為了充分利用這些信息,我們計算了視頻中每個輸入幀和另一幀之間的2D光流,用它表示兩幀之間的像素位移。

這些光流場取決於場景的深度和攝像頭的相對位置。但是,由於攝像頭位置是已知的,可以從流場中去除二者之間的依賴關係,由此生成初始深度圖。此初始深度僅對靜態場景區域有效。為了在測試時處理運動中的人,可以利用人工分割網路來蓋住初始深度圖中的人類區域。這樣,我們網路的完整輸入包括:RGB圖像、蓋住人類的區域,以及基於視差的遮蓋後的深度圖。

Google AI:機器學習預測場景深度圖,模擬人眼更進一步

深度預測網路:模型的輸入包括RGB圖像(第t幀),人類區域的遮蓋和非人類區域的初始深度,根據輸入幀與另一個之間的運動視差(光流)計算視頻中的幀。模型輸出第t幀的完整深度圖。由MVS演算法計算出的深度圖負責對訓練過程的監督。

該網路的作用是「修復」人與場景的深度值,並在其他地方細化深度值。因為人類的外形和大小特徵幾乎一致,網路可以通過觀察多個訓練樣例,在模型內部學習這些先驗知識。經過訓練後,模型就可以處理任意攝像頭和人體同時運動的視頻。


來看一段介紹視頻:

以下是基於視頻的深度預測模型結果的一些示例,並與最近基於最新學習的方法做了比較。

Google AI:機器學習預測場景深度圖,模擬人眼更進一步

上圖:基於學習的單眼深度預測方法。 下圖:基於學習的立體方法(DeMoN)和我們的估計深度圖的結果。


使用深度圖處理3D視頻效果

Google AI:機器學習預測場景深度圖,模擬人眼更進一步

我們預測的深度圖可用於產生一系列3D感知視頻效

Google AI:機器學習預測場景深度圖,模擬人眼更進一步

使用估計深度圖產生的散景效果

我們的深度圖也可用於其他方面的應用,包括利用單眼視頻生成立體視頻,將合成CG對象插入場景,還可以在視頻的其他幀中顯示內容的情況下進行場景區域的填充。

參考鏈接:

https://ai.googleblog.com/2019/05/moving-camera-moving-people-deep.html

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新智元 的精彩文章:

中國學者頂級期刊發文:AI精準預測腎病預後
Science子刊封面:僅需20%信息,AI場景全再現!

TAG:新智元 |