當前位置:
首頁 > 新聞 > 頂風作案:這款使用Deepfake技術的APP,上線幾小時即告下架

頂風作案:這款使用Deepfake技術的APP,上線幾小時即告下架

機器之心報道

機器之心編輯部


AI 演算法「Deepfake」可以生成各種有關人物的逼真圖像和視頻,近幾個月來讓眾多明星和政客遭殃,甚至已經讓美國眾議員著手制定監管法律。然而這些並沒有阻止人們「作死」的步伐,最近的一款「人工智慧 X 光 APP」又讓 Deepfake 被推上了風口浪尖。

據 Motherboard 等美國媒體報道,一名程序員本周開發出了一款名為 DeepNude 的應用軟體。它的功能說來簡單:輸入一張女性照片,該 APP 即可藉助神經網路自動「脫掉」女性身上的衣服,從而展現其裸體。

頂風作案:這款使用Deepfake技術的APP,上線幾小時即告下架

打開今日頭條,查看更多圖片

DeepNude 只能處理女性照片,並且號稱原圖裸露的皮膚越多,處理效果就越好;而上傳男性照片,最後得出的照片還是被替換成女性身體。這款 APP 基於加州大學伯克利分校研究者開發的開源演算法 pix2pix,並使用 1 萬張女性裸體照片進行訓練。

本周四,DeepNude 已在官網上線,用戶可在線上處理照片,同時可下載的 Windows 和 Linux 應用也在 6 月 23 日推出。這款 APP 有免費版和 50 美元付費版。使用免費版獲得的圖片會出現較大水印,付費版雖然不出現水印,但也會在圖片左上角加上「FAKE」標籤。

頂風作案:這款使用Deepfake技術的APP,上線幾小時即告下架

這款 APP 處理後的圖像如美國眾議員提出的《DEEPFAKES》法案中強制的那樣,打上了明顯的「FAKE」標籤,即便如此也顯得超出了人們的底線。

DeepNude 創建者表示其開發此款 APP 出於「好奇心」和「有意思」,但也希望從中獲得經濟回報。

此前,名為「deepfakes」的 AI 換臉技術就曾在網上引發熱議,一名 Reddit 用戶利用 AI 技術將明星臉「嫁接到」成人電影女主身上製作「假」色情視頻,因而遭到眾多平台的強烈抵制。

而 DeepNude 主要用於處理女性照片,因而在操作上更加簡單,處理速度也更快。但是,如此侵犯女性隱私的 APP 會不會像「deepfakes」一樣遭到抵制呢?

果不其然,與「deepfakes」的命運一樣,在上線僅幾小時後,這款利用 AI 創建女性裸體的 deepfake 應用軟體就宣布下架了。但它下架的理由卻並不是遭到大量抵制,而是因為流量過高!Excuse me??[手動狗頭]

DeepNude 的創建團隊在推特上表示,他們「大大低估了人們對該項目的興趣」,人們濫用這款 APP 的可能性也太大了。

因此,他們宣布,DeepNude 將不再出售,之後也不會推出新版本。該團隊還警告稱不要在網上分享這款應用,否則會違反相關服務條款。但是,他們也承認,「肯定會有一些副本流出」。

DeepNude APP 的開發者發出公告表示傳播深度學習處理過的圖片並不是開發軟體的本意,而那些付費購買但還沒來得及升級的用戶將會收到退款。

頂風作案:這款使用Deepfake技術的APP,上線幾小時即告下架

DeepNude 團隊在宣布下架該 APP 的公告結尾稱「這個世界還沒有做好接受 DeepNude 的準備,總有一天,這款 APP 可以得到適當的使用。」

就這樣,DeepNude 的鬧劇結束了。

爭議不斷的 Deepfake 技術

Deepfake 的名稱源自一位名叫「Deepfakes」的 reddit 用戶,這個名字其實是「deep machine learning」和「fake photo」的縮寫,是利用深度學習等 AI 技術合成虛假視頻、照片等技術的統稱。

該技術開始時主要應用於換臉,如我們熟悉的將《射鵰英雄傳》中朱茵的臉換成楊冪、將雷神、海王換臉為「金毛獅王」徐錦江等。

當然,還有很多人將其應用於製作成人視頻或者名人的虛假視頻。這些合成內容傳到網上之後

很難刪除,給女性等群體造成了很大困擾。另外,由於該技術有擾亂政壇、影響大選的可能,美國政府還專門提出了法案打擊 deepfake 技術。

除了政策層面,有很多技術手段也可以幫助我們識別這些假視頻、假照片。自 deepfake 技術出現以來,研究者已經開發了一些可以檢測這些造假技術的演算法,而且準確率也不斷提高。但僅僅靠這些演算法還是遠遠不夠的……

檢測演算法作用有限

雖然現在已有檢測 deepfake 的演算法,其準確率能夠達到 90% 以上。但光靠這些演算法和軟體還不夠,它們只能解決部分問題。畢竟,deepfake 技術不斷發展,哪怕檢測演算法再先進,也抵擋不了那些滿懷惡意的人。說得難聽點,只有千日做賊沒有千日防賊的。

專家認為,就像電腦病毒或生化武器一樣,來自 deepfake 的威脅已經成為了一個永久特徵。雖然從政治角度來看,deepfake 是否會成為巨大的危險還存在爭議,但它已經在損害女性的生活了。比如之前給情色視頻主人公換臉的技術,以及現在給女性照片「一鍵脫衣」的 APP。

計算機視覺專家、南加州大學副教授 Hao Li 表示,任何 deepfake 檢測器只能短暫地起作用。實際上,它們在某些時候根本不可能發現「AI fakes」。因此,需要採取不同類型的方法來解決這類問題。

Hao Li 所在的團隊最近就設計了一種 deepfake 檢測器。他和同事構建了一種能夠發現 AI 對視頻進行過編輯的演算法,演算法通過追蹤每個人特有的面部微表情來做到這一點。

這些標記(微表情)被稱為「軟生物特徵」,它們對 AI 來說太微妙了,目前還無法模仿。這些特徵包括特朗普在回答問題前如何緊閉雙唇,沃倫如何揚眉來強調某個觀點。演算法通過研究個人過去的鏡頭來學習識別這些動作,結果就是它能夠在幾種不同類型的 deepfake 方面達到至少 92% 的識別準確率。

不過,Li 表示這項技術可能沒多久就沒用了。因為 deepfake 技術也在不斷發展,就像不斷進化的病毒一樣。

人工智慧基金會(AI Foundation)的研究副總裁 Delip Rao 也表示,挑戰遠不止簡單的檢測。

例如,上周公布的 deepfake 檢測演算法據說可以達到 97% 的準確率(參見論文《Recurrent Convolutional Strategies for Face Manipulation Detection in Videos》)。但正如 Rao 所指出的,考慮到互聯網平台的規模,這剩下的 3% 仍然具有破壞性。

「假設 Facebook 部署了這一演算法,再假設 Facebook 每天要處理 3.5 億張圖像,即使是 3% 的錯誤率仍然會導致大量錯誤識別圖像被放出,」Rao 表示。「來自模型的每個假陽性結果都是對用戶信任的挑戰。」

Rao 表示,開發可以識別假照片和視頻的技術非常重要,但更大的挑戰在於提高這些方法的有用性。社交平台還沒有出台打擊 deepfake 的明確政策,例如上周,Facebook 就決定保留其平台上的扎克伯格造假視頻。全面禁止 deepfake 技術是不明智的。

Li 表示,「如果檢測到人工修改內容,至少應該基於自動系統給視頻打上標籤。」不過,他還說道,假視頻、照片被發現只是時間問題,「說到底,視頻也只是像素的集合而已。」

Rao 和他 AI Foundation 的同事正致力於開發一種結合人類判斷的方法,但其他人表示,比起識別虛假視頻,他們認為驗證真實的視頻和圖像才應該是起點。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器之心 的精彩文章:

前瞻研究:生物製藥行業智能製造技術應用現狀及展望

TAG:機器之心 |