CNN對抗補丁之謎
最新
01-21
作者|Sachin Joglekar
譯者|王純超
編輯|Emily
AI 前線導讀:雖然過去幾周的許多文章都談到了最近的對抗補丁(adversarial patch),但還沒有人解釋它們是如何工作的。本文也不例外。
更多乾貨內容請關注微信公眾號「AI 前線」,(ID:ai-front)
首先說一下基本概念。
對抗攻擊基本上指提供一個欺騙性的輸入給 ML 模型,誤導它產生錯誤的結果。這個結果可能是不正確的,或者是攻擊者想要獲得的某個目標分類。
這篇 Ycombinator 博文很好地解釋了神經網路對抗攻擊。文章太長,簡單來說就是:
這種簡單方法的效果令人驚訝,而且雜訊(X)可能很難檢測到:
但是,這種方法要求為每張想要誤導神經網路的圖像執行漸變下降。從本質上說,你無法使用這種方法在運行過程中攻擊模型。這就需要使用對抗補丁了。
這個方法相當有效(請觀看 https://youtu.be/i1sp4X57TL4)。
它為何與眾不同呢?
它給對抗攻擊一個全新的維度。例如,假設你要欺騙一個用來監控搶劫的人臉檢測相機。你可以隨身攜帶一個對抗補丁,從根本上讓相機誤以為看到一棵正在移動的樹!
當然,要達到這個目的,你還需要訪問預測神經網路。這篇論文決不是完全否定卷積神經網路對於圖像分類系統的意義。但是,這項工作無疑是探索自動化系統的薄弱環節和安全隱患的正確方向。
查看英文原文:
https://codeburst.io/adversarial-patches-for-cnns-explained-d2838e58293
※PyTorch發布一年團隊總結:運行資源降低至十分之一,單機王者
TAG:AI漫遊 |