當前位置:
首頁 > 最新 > 攻擊AI模型之DeepFool演算法

攻擊AI模型之DeepFool演算法

雷鋒網(公眾號:雷鋒網) AI 科技評論按:本文為「兜哥帶你學安全」系列之三,首發於AI科技評論,未經許可不得轉載。

概述

在前面文章《對抗樣本的基本原理》中,我們介紹了生成對抗樣本的基本思路,其中大體思路分為白盒攻擊和黑盒攻擊,區別在於黑盒測試把模型當做黑盒,只能輸入樣本獲得預測結果,白盒在黑盒的基礎上還可以獲取模型的參數、梯度等信息。本文將介紹白盒攻擊中鼎鼎大名的DeepFool演算法。

DeepFool基本原理

在《攻擊AI模型之FGSM演算法》中,我們介紹了FGSM的基本原理。一個很好的問題就是,我們究竟對原始圖像做了多大修改就可以欺騙AI模型呢?換個說法就是,如何盡量少的修改原始圖像就可以達到欺騙AI模型的目的呢?首先我們先看下我們對原始圖像做了哪些修改。假設我們原始圖像為x0file,對抗樣本為x1file,將原始圖像保存成向量。

#原始圖像數據

x0_img = image.load_img(x0_file, target_size=(299, 299))

x0 = image.img_to_array(x0_img)

同樣的方法,將對抗樣本生成的圖像保存成向量。

#對抗樣本數據

x1_img = image.load_img(x1_file, target_size=(299, 299))

x1 = image.img_to_array(x1_img)

計算原始圖像和對抗樣本之間的差值,轉換成無符號的位元組類型後保存成圖像。

#計算變化量

d=x1-x0

im = Image.fromarray(d.astype(np.uint8))

im.save(out)

以我們經典的小豬圖像為原始圖像,效果如下圖所示。

FGSM演算法生成的對抗樣本圖像,效果如下圖所示。

對抗樣本相對原始圖像的變化量,效果如下圖所示。

DeepFool最早由S. Moosavi-Dezfooli, A. Fawzi,和P. Frossard在《DeepFool: a simple and accurate method to fool deep neural networks》中提出。以最簡單的二分類問題為例,如圖所示,假設分割平面是一個直線,直線的兩側分別對應不同的分類結果。

如果想改變其中某點的分類結果,一定要跨過分割平面。顯然最短的移動距離就是垂直分割平面進行移動。在線性代數裡面,點x到直線Ax+By+C=0的距離定義為:

向量化表示距離如下,其中w為參數矩陣。

推而廣之,在二分類問題中,當分割平面不是線性時,我們假設當移動的距離很小時,分割平面相對該點可以認為依然是一個線性的分割平面,每次迭代時,該點都以很小的移動距離不斷逼近分割平面。

由於移動距離很小,可以使用該點的梯度代替參數矩陣w。多分類問題時,與二分類問題類似,只不過在迭代計算時需要考慮該點向不同分類標籤移動時要選取一定距離最短的那個。

攻擊圖像識別模型

以攻擊InceptionV3模型為例,介紹生成攻擊樣本的基本原理。Keras內置了這個模型,我們直接使用就可以了。從模型中直接獲取第一層的輸入作為輸入層,最後一層的輸出為輸出層。

model = inception_v3.InceptionV3()

model_input_layer = model.layers[0].input

model_output_layer = model.layers[-1].output

然後載入我們攻擊的圖片,比如我們的小豬。這裡需要特彆強調的是,NumPy出於性能考慮,默認的變數賦值會引用同樣一份內存,所以我們需要使用np.copy手工強制複製一份圖像數據。

img = image.load_img("../picture/pig.jpg", target_size=(299, 299))

original_image = image.img_to_array(img)

hacked_image = np.copy(original_image)

為了避免圖像變化過大,超過肉眼可以接受的程度,我們需要定義閾值。

max_change_above = original_image + 0.01

max_change_below = original_image - 0.01

下面我們要定義最關鍵的三個函數了,我們定義損失函數為識別為烤麵包機的概率,因此我們需要使用梯度上升演算法,不斷追求損失函數的最大化,變數objecttypeto_fake定義的就是烤麵包機對應的標籤,在InceptionV3中麵包機的標籤為859。

object_type_to_fake = 859

有了損失函數以後,我們就可以通過Keras的介面獲取到對應的梯度函數。最後通過K.function獲取一個Keras函數實例,該函數的輸入列表分別為輸入層和當前是訓練模式還是測試模式的標記learning_phase(),輸出列表是損失函數和梯度。關於K.function的使用建議閱讀Keras的在線文檔。

cost_function = model_output_layer[0, object_type_to_fake]

gradient_function = K.gradients(cost_function, model_input_layer)[0]

grab_cost_and_gradients_from_model =

K.function([model_input_layer,K.learning_phase()],

[cost_function, gradient_function] )

除了迭代環節,DeepFool與FGSM的演算法完全相同。在迭代環節,我們通過NumPy的inalg.norm函數對梯度進行處理,然後迭代更新圖片內容。

這裡需要特別介紹下linalg.norm函數,其函數原型為:

其中ord表示矩陣的範數。

ord=1,列和的最大值,第一範式

ord=2,求特徵值,然後求最大特徵值得算術平方根,第二範式,也是默認值

axis表示處理類型。

axis=1表示按行向量處理,求多個行向量的範數

axis=0表示按列向量處理,求多個列向量的範數

axis=None表示矩陣範數。

在我的Mac本經過2分鐘27次迭代訓練,獲得了新的家豬圖像,但是機器學習模型識別它為烤麵包機的概率卻達到了86.086%。

batch:20 Cost: 18.707792%

batch:21 Cost: 26.560178%

batch:22 Cost: 37.765652%

batch:23 Cost: 50.175613%

batch:24 Cost: 65.024394%

batch:25 Cost: 71.812165%

batch:26 Cost: 73.846906%

batch:27 Cost: 86.086935%

基於DeepFool演算法被識別為烤麵包機的家豬的圖片效果如下。

計算相對原始圖像的修改量,如下圖所示,顯然比FGSM修改量少。

參考文獻

S. Moosavi-Dezfooli, A. Fawzi, P. Frossard: DeepFool: a simple and accurate method to fool deep neural networks. In Computer Vision and Pattern Recognition (CVPR 』16), IEEE, 2016.

劉焱,《web安全之強化學習與GAN》,機械工業出版社

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷鋒網 的精彩文章:

GAIR 大會智能安全專場將有哪些大咖現身?內幕走一波
全國首家無人智慧酒店落戶少海匯產業園

TAG:雷鋒網 |