當前位置:
首頁 > 新聞 > 圖像學習之如何理解方向梯度直方圖(Histogram Of Gradient)

圖像學習之如何理解方向梯度直方圖(Histogram Of Gradient)

雷鋒網按:本文作者Slyne_D,原文載於作者的簡書主頁,雷鋒網經授權發布。

本文主要翻譯了Histogram of Oriented Gradients一文。

特徵描述子(Feature Descriptor)

特徵描述子就是圖像的表示,抽取了有用的信息,丟掉了不相關的信息。通常特徵描述子會把一個w*h*3(寬高3,3個channel)的圖像轉換成一個長度為n的向量/矩陣。比如一副64*128*3的圖像,經過轉換後輸出的圖像向量長度可以是3780。

什麼樣子的特徵是有用的呢?假設我們想要預測一張圖片裡面衣服上面的扣子,扣子通常是圓的,而且上面有幾個洞,那你就可以用邊緣檢測(edge detector),把圖片變成只有邊緣的圖像,然後就可以很容易的分辨了,那麼對於這張圖邊緣信息就是有用的,顏色信息就是沒有用的。而且好的特徵應該能夠區分紐扣和其它圓形的東西的區別。

方向梯度直方圖(HOG)中,梯度的方向分布被用作特徵。沿著一張圖片X和Y軸的方向上的梯度是很有用的,因為在邊緣和角點的梯度值是很大的,我們知道邊緣和角點包含了很多物體的形狀信息。

(HOG特徵描述子可以不局限於一個長度,也可以用很多其他的長度,這裡只記錄一種計算方法。)

怎麼計算方向梯度直方圖呢?

我們會先用圖像的一個patch來解釋。

第一步:預處理

Patch可以是任意的尺寸,但是有一個固定的比例,比如當patch長寬比1:2,那patch大小可以是100*200, 128*256或者1000*2000但不可以是101*205。

這裡有張圖是720*475的,我們選100*200大小的patch來計算HOG特徵,把這個patch從圖片裡面摳出來,然後再把大小調整成64*128。

圖像學習之如何理解方向梯度直方圖(Histogram Of Gradient)

hog_preprocess

第二步:計算梯度圖像

首先我們計算水平和垂直方向的梯度,再來計算梯度的直方圖。可以用下面的兩個kernel來計算,也可以直接用OpenCV裡面的kernel大小為1的Sobel運算元來計算。

圖像學習之如何理解方向梯度直方圖(Histogram Of Gradient)

horizontal_vertical_gradient_kernel

調用OpenCV代碼如下:

// C++ gradient calculation.

// Read image

Mat img = imread("bolt.png");

img.convertTo(img, CV_32F, 1/255.0);

// Calculate gradients gx, gy

Mat gx, gy;

Sobel(img, gx, CV_32F, 1, 0, 1);

Sobel(img, gy, CV_32F, 0, 1, 1);

# Python gradient calculation

# Read imageim = cv2.imread("bolt.png")

im = np.float32(im) / 255.0

# Calculate gradient

gx = cv2.Sobel(img, cv2.CV_32F, 1, 0, ksize=1)

gy = cv2.Sobel(img, cv2.CV_32F, 0, 1, ksize=1)

接著,用下面的公式來計算梯度的幅值g和方向theta:

gradient_direction_formula

可以用OpenCV的cartToPolar函數來計算:


// C++ Calculate gradient magnitude and direction (in degrees)

Mat mag, angle;

cartToPolar(gx, gy, mag, angle, 1);

# Python Calculate gradient magnitude and direction ( in degrees )mag, angle = cv2.cartToPolar(gx, gy, angleInDegrees=True)

計算得到的gradient圖如下:

圖像學習之如何理解方向梯度直方圖(Histogram Of Gradient)

左邊:x軸的梯度絕對值 中間:y軸的梯度絕對值 右邊:梯度幅值

從上面的圖像中可以看到x軸方向的梯度主要凸顯了垂直方向的線條,y軸方向的梯度凸顯了水平方向的梯度,梯度幅值凸顯了像素值有劇烈變化的地方。(注意:圖像的原點是圖片的左上角,x軸是水平的,y軸是垂直的)

圖像的梯度去掉了很多不必要的信息(比如不變的背景色),加重了輪廓。換句話說,你可以從梯度的圖像中輕而易舉的發現有個人。

在每個像素點,都有一個幅值(magnitude)和方向,對於有顏色的圖片,會在三個channel上都計算梯度。那麼相應的幅值就是三個channel上最大的幅值,角度(方向)是最大幅值所對應的角。

第三步:在8*8的網格中計算梯度直方圖

在這一步,上面的patch圖像會被分割成8*8大小的網格(如下圖),每個網格都會計算一個梯度直方圖。那為什麼要分成8*8的呢?用特徵描述子的一個主要原因是它提供了一個緊湊(compact)/壓縮的表示。一個8*8的圖像有8*8*3=192個像素值,每個像素有兩個值(幅值magnitude和方向direction,三個channel取最大magnitude那個),加起來就是8*8*2=128,後面我們會看到這128個數如何用一個9個bin的直方圖來表示成9個數的數組。不僅僅是可以有緊湊的表示,用直方圖來表示一個patch也可以更加抗噪,一個gradient可能會有噪音,但是用直方圖來表示後就不會對噪音那麼敏感了。

圖像學習之如何理解方向梯度直方圖(Histogram Of Gradient)

這個patch的大小是64*128,分割成8*8的cell,那麼一共有64/8 * 128/8 = 8*16=128個網格

對於64*128的這幅patch來說,8*8的網格已經足夠大來表示有趣的特徵比如臉,頭等等。

直方圖是有9個bin的向量,代表的是角度0,20,40,60.....160。

我們先來看看每個8*8的cell的梯度都是什麼樣子:

圖像學習之如何理解方向梯度直方圖(Histogram Of Gradient)

中間: 一個網格用箭頭表示梯度 右邊: 這個網格用數字表示的梯度

中間這個圖的箭頭是梯度的方向,長度是梯度的大小,可以發現箭頭的指向方向是像素強度變化方向,幅值是強度變化的大小。

右邊的梯度方向矩陣中可以看到角度是0-180度,不是0-360度,這種被稱之為"無符號"梯度("unsigned" gradients),因為一個梯度和它的負數是用同一個數字表示的,也就是說一個梯度的箭頭以及它旋轉180度之後的箭頭方向被認為是一樣的。那為什麼不用0-360度的表示呢?在事件中發現unsigned gradients比signed gradients在行人檢測任務中效果更好。一些HOG的實現中可以讓你指定signed gradients。

下一步就是為這些8*8的網格創建直方圖,直方圖包含了9個bin來對應0,20,40,...160這些角度。

下面這張圖解釋了這個過程。我們用了上一張圖裡面的那個網格的梯度幅值和方向。根據方向選擇用哪個bin, 根據副值來確定這個bin的大小。先來看藍色圓圈圈出來的像素點,它的角度是80,副值是2,所以它在第五個bin裡面加了2,再來看紅色的圈圓圈圈出來的像素點,它的角度是10,副值是4,因為角度10介於0-20度的中間(正好一半),所以把幅值一分為二地放到0和20兩個bin裡面去。

圖像學習之如何理解方向梯度直方圖(Histogram Of Gradient)

梯度直方圖

這裡有個細節要注意,如果一個角度大於160度,也就是在160-180度之間,我們知道這裡角度0,180度是一樣的,所以在下面這個例子里,像素的角度為165度的時候,要把幅值按照比例放到0和160的bin裡面去。

圖像學習之如何理解方向梯度直方圖(Histogram Of Gradient)

角度大於160的情況

把這8*8的cell裡面所有的像素點都分別加到這9個bin裡面去,就構建了一個9-bin的直方圖,上面的網格對應的直方圖如下:

圖像學習之如何理解方向梯度直方圖(Histogram Of Gradient)

8*8網格直方圖

這裡,在我們的表示中,Y軸是0度(從上往下)。你可以看到有很多值分布在0,180的bin裡面,這其實也就是說明這個網格中的梯度方向很多都是要麼朝上,要麼朝下。

第四步: 16*16塊歸一化

上面的步驟中,我們創建了基於圖片的梯度直方圖,但是一個圖片的梯度對於整張圖片的光線會很敏感。如果你把所有的像素點都除以2,那麼梯度的幅值也會減半,那麼直方圖裡面的值也會減半,所以這樣並不能消除光線的影響。所以理想情況下,我們希望我們的特徵描述子可以和光線變換無關,所以我們就想讓我們的直方圖歸一化從而不受光線變化影響。

先考慮對向量用l2歸一化的步驟是:

v = [128, 64, 32]

[(128^2) + (64^2) + (32^2) ]^0.5=146.64

把v中每一個元素除以146.64得到[0.87,0.43,0.22]

考慮另一個向量2*v,歸一化後可以得到向量依舊是[0.87, 0.43, 0.22]。你可以明白歸一化是把scale給移除了。

你也許想到直接在我們得到的9*1的直方圖上面做歸一化,這也可以,但是更好的方法是從一個16*16的塊上做歸一化,也就是4個9*1的直方圖組合成一個36*1的向量,然後做歸一化,接著,窗口再朝後面挪8個像素(看動圖)。重複這個過程把整張圖遍歷一遍。

圖像學習之如何理解方向梯度直方圖(Histogram Of Gradient)

hog-16x16-block-normalization

第五步:計算HOG特徵向量

為了計算這整個patch的特徵向量,需要把36*1的向量全部合併組成一個巨大的向量。向量的大小可以這麼計算:

  1. 我們有多少個16*16的塊?水平7個,垂直15個,總共有7*15=105次移動。

  2. 每個16*16的塊代表了36*1的向量。所以把他們放在一起也就是36*105=3780維向量。

可視化HOG

通常HOG特徵描述子是畫出8*8網格中9*1歸一化的直方圖,見下圖。你可以發現直方圖的主要方向捕捉了這個人的外形,特別是軀幹和腿。

圖像學習之如何理解方向梯度直方圖(Histogram Of Gradient)

visualizing_histogram

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷鋒網 的精彩文章:

WRC 2017最值得關注的專題論壇之一,與大咖探討青年科學家的創新創業
迪士尼也來研究人工智慧啦,將AI用於動畫製作
京東金融興業銀行搞事情,讓你的錢自動生錢
第五屆CCF大數據學術會議10月召開,多位大咖帶你走向學術最前沿
巴塞羅那恐怖襲擊致多人喪生 AI用於反恐到哪一步了?

TAG:雷鋒網 |

您可能感興趣

從One-hot,Word embedding到Transformer,一步步教你理解Bert
理解 OutOfMemoryError 異常
徹底理解cookie、session、token
阿里CEO張勇:我們理解AI是Alibaba Intelligence
Windows PowerShell進階 理解Module
「straight from the horse s mouth」不是「從馬的嘴」,這樣理解就錯了
我所理解的#ShotoniPhone
理解 Linux 中的 /etc/services 文件
我所理解的 Smartisan OS
快速理解Token,Cookie,Session
Cookie,Session和Token概念的正確理解
Waymo軟體工程總監Sacha Arnoud:Waymo還需在應用場景和語義理解方面繼續突破
理解 Python 的 for 循環
如何理解 NVIDIA新GPU 架構 Turing的Tensor Core?
用汽車比喻理解OOP-Jonathan Kuhl
MapReduce Shuffle深入理解
理解foreach, for in, for of 之間的異同
Quantic Dream:網易理解我們的願景
Less與TypeScript的簡單理解與應用,並使用WebPack打包靜態頁面
簡單理解Vue中的nextTick