CVPR 18 論文解讀:基於空洞卷積神經網路的高密度人群理解方法 | CVPR 2018
雷鋒網 AI 科技評論按:本文作者為美國伊利諾伊大學(UIUC)張曉帆,他為 AI 科技評論撰寫了基於 CVPR 錄用論文《CSRNet: Dilated Convolutional Neural Networks for Understanding the Highly Congested Scenes》的獨家解讀稿件,未經許可不得轉載。
論文地址:https://arxiv.org/pdf/1802.10062.pdf
來自北京郵電大學和美國伊利諾伊大學(UIUC)的研究者們提出一種適用於密集人群計數的空洞卷積神經網路模型 CSRNet。該網路模型擺脫以往廣泛應用於人群計數的多通道卷積網路方案,在大幅削減網路參數量和網路訓練難度的同時,顯著提升了人群計數的精度和人群分布密度圖的還原度。該研究已被 CVPR 2018 接收。
人群計數和人群密度估計有著重要的安防應用場景。隨著城市人口的日益增長,在地鐵站,商場,各種節日集會中,超額聚集的人群帶來潛在危險,極容易造成踩踏、騷亂等悲劇。因此,人群計數和人群的密度分布估計成為安防領域的熱門課題。近年來,人群計數的演算法性能在與深度學習的結合下得到了很大的提升。
人群計數的目的是找出特定場景中的人數,而人群密度分布估計需要獲取空間密度信息和人數(密度圖求和)。人群計數的難點在於,場景的變化跨度大,目標的尺度變化不盡相同,人和人、人和景物之間存在不同程度的遮擋等等。如圖 1 所示,三張圖均包含了 95 人,但是他們的空間分布完全不同。
圖 1 人群計數場景
作者研究發現,被廣泛運用在人群計數上的多通道卷積網路(MCNN)存在著結構冗餘、參數繁多、訓練困難的局限性。此類多通道卷積網路在不同通道上採取大小不等感受域的卷積網路,以適應不同場景(如高、中、低密集程度)的人群計數需要。但研究發現,不同通道學習到的特徵重合度很高(圖 2),並沒有因場景密集程度不同而出現明顯差異。多通道網路表現冗餘。為作對比,作者採用一個參數更少、更深層、更易訓練的單通道卷積網路(A deeper CNN),獲得比多通道網路更好的效果(表 1)。
圖 2 多通道卷積網路中的大、中、小通道在 ShanghaiTech PartA 中的測試表現相似
表 1 更深的單通道卷積網路使用較少參數卻在 ShanghaiTech PartA 中獲得更小誤差
此外,作者為了避免過度使用降採樣而導緻密度圖的解析度損失,在網路的後半部分引入了空洞卷積層,利用空洞卷積增大感受域並維持解析度(圖 3),並提出 CSRNet 網路模型(表 2)。CSRNet 後端四組不同的配置在 ShanghaiTech PartA 中性能測試如表 3。
圖 3 使用卷積+池化+上採樣(上)與空洞卷積(下)輸出同樣解析度圖像,空洞卷積可保留更多圖像細節
表 2 CSRNet 網路結構,卷積以參數命名為(conv kernel size – channel – dilation rate)
表 3 CSRNet 的四種後端配置在人群計數中精度對比,其中方案 B 精度最高
由於採用比多通道網路更簡單的結構,CSRNet 在訓練時可直接採用端到端訓練並快速復現實驗結果,也可利用遷移學習提高訓練效果。得益於簡單、規整的網路結構,CSRNet 對硬體實現更加友好,可以高效地部署在物聯網設備中。
實驗表明,CSRNet 在四個公開人群數據集(ShanghaiTech dataset、the UCF CC 50 dataset、the WorldEXPO"10 dataset、the UCSD dataset)和一個車輛數據集(TRANCOS dataset)上均達到了最高水平的精確度(State-of-the-art Performance),詳見表 4 至表 8。
表 4 ShanghaiTech 數據集測試結果
表 5 UCF CC 50 數據集測試結果
表 6 WorldExpo" 10 數據集測試結果
表 7 UCSD 數據集測試結果
表 8 TRANCOS 數據集測試結果
※2018年會是區塊鏈商用化的黎明嗎?
※前Google、Apple、Stanford的頂級地圖專家加盟,DeepMap公布了一個超豪華的技術顧問委員會陣容
TAG:雷鋒網 |