圖普科技:如何用TensorFlow實現物體檢測的像素級分類
TensorFlow 的「物體檢測 API」有了一個新功能,它能根據目標對象的像素位置來確定該對象的像素。換句話來說,TensorFlow 的物體檢測從原來的圖像級別成功上升到了像素級別。
使用 TensorFlow 的「物體檢測 API」圖片中的物體進行識別,最後的結果是圖片中一個個將不同物體框起來的方框。最近,這個「物體檢測 API」有了一個新功能,它能根據目標對象的像素位置確定該對象的像素,實現物體的像素分類。
TensorFlow 的物體檢測 API 模型——Mask-RCNN
實例分割
「實例分割」是物體檢測的延伸,它能讓我們在普通的物體檢測的基礎上獲取關於該對象更加精確、全面的信息。
在什麼情況下我們才需要這樣精確的信息呢?
無人駕駛汽車
為了確保安全,無人駕駛汽車需要精確定位道路上其他車輛和行人。
機器人系統
機器人在連接兩個部件時,如果知道這兩個部件的確切位置,那麼機器人的操作就會更加高效、準確。
「實例分割」的方法有很多,TensorFlow 進行「實例分割」使用的是 Mask RCNN 演算法。
Mask R-CNN 演算法概述
Mask RCNN 演算法架構
在介紹 Mask RCNN 之前,我們先來認識一下 Faster R-CNN。
Faster-RCNN 是一個用於物體檢測的演算法,它被分為兩個階段:第一階段被稱為「候選區域生成網路」(RPN),即生成候選物體的邊框;第二階段本質上是 Fast R-CNN 演算法,即利用 RolPool 從每個候選邊框獲取對象特徵,並執行分類和邊框回歸。這兩個階段所使用的特徵可以共享,以更快地獲得圖像推算結果。
Faster R-CNN 對每個候選對象都有兩個輸出,一個是分類標籤,另一個是對象邊框。而 Mask-RCNN 就是在 Faster R-CNN 的兩個輸出的基礎上,添加一個掩碼的輸出,該掩碼是一個表示對象在邊框中像素的二元掩碼。但是這個新添加的掩碼輸出與原來的分類和邊框輸出不同,它需要物體更加精細的空間布局和位置信息。因此,Mask R-CNN 需要使用「全卷積神經網路」(FCN)。
「全卷積神經網路」是「語義分割」中十分常見的演算法,它利用了不同區塊的卷積和池化層,首先將一張圖片解壓至它原本大小的三十二分之一,然後在這種粒度水平下進行預測分類,最後使用向上採樣和反卷積層將圖片還原到原來的尺寸。
因此,Mask RCNN 可以說是將?Faster RCNN 和「全卷積神經網路」這兩個網路合併起來,形成的一個龐大的網路架構。
實操 Mask-RCNN
圖片測試
你可以利用 TensorFlow 網站上的共享代碼來對 Mask RCNN 進行圖片測試。以下是測試結果:
Mask RCNN on Kites Image
視頻測試
最有意思的是用 YouTube 視頻來測試這個模型。從 YouTube 上下載幾條視頻,開始了視頻測試。
視頻測試的主要步驟:
1. 使用 VideoFileClip 功能從視頻中提取出每個幀;
2. 使用 fl_image 功能對視頻中截取的每張圖片進行物體檢測,然後用修改後的視頻圖片替換原本的視頻圖片;
3. 最後,將修改後的視頻圖像合併成一個新的視頻。
Mask RCNN 的深入研究
下一步的探索包括:
測試一個精確度更高的模型,觀察兩次測試結果的區別;
使用 TensorFlow 的物體檢測 API 在定製的數據集上對 Mask RCNN 進行測試。
※不用雙通道也無SSD!戴爾的新產品為何如此設計?
※《大金剛》世界記錄保持者被除名:靠模擬器作弊
TAG:太平洋電腦網 |