當前位置:
首頁 > 知識 > 換臉App背後的恐慌:我的臉什麼時候會被偽造,又該如何辨別?

換臉App背後的恐慌:我的臉什麼時候會被偽造,又該如何辨別?

誰能想到,全民換臉的時刻這麼快就來臨了。在一夜之間,朋友圈幾乎被ZAO刷屏,親朋好友們紛紛用自己的臉換上了電影明星的臉,「上演天下好戲」。

這種以假亂真的換臉視頻技術,其實已經不是什麼新鮮事了。但一直以來,它還只是名人們的「煩惱」,例如擔心自己成為色情片的主角。而如今ZAO的火爆卻證明,換臉對常人的吸引力到底有多大。上熱搜,登頂應用商店,一度被擠爆伺服器,這款簡單的換臉APP獲得了驚人的流量。

然而在火爆之後,質疑聲也接踵而至。很多人開始針對ZAO的用戶協議提出批評,直指你的臉有可能被惡意利用,甚至在出現侵權問題時也可能是你來背鍋。

在受到爭議後,ZAO修改的最新用戶協議 | ZAO用戶協議截圖

讓AI技術觸及大眾本來是件好事,那換臉視頻到底出了什麼問題呢?

換臉變得越來越容易

要了解這種換臉視頻是如何實現的,Deepfake技術是繞不開的話題。

2017年,一位叫做「Deepfakes」的Reddit網友上傳了幾個色情視頻,引起轟動。令人意外的是,這些視頻里的演員都是名人,比如「神奇女俠」蓋爾·加朵和「赫敏」艾瑪·沃森。當然這些視頻並不是真的,而是藉由AI技術偽造,這種技術因此得名Deepfake。

「我只是找到了一個聰明的方法來換臉。」Deepfakes在接受Vice採訪時說, 「有了數百張面部圖像,我就能輕鬆生成數百萬變形的圖像來訓練神經網路。然後,當我向網路輸入某人的臉部圖像時,網路只會認為這是另一張變形圖像,從而嘗試讓它看起來像是訓練時所用的臉。」

動起來的瑪麗蓮夢露、愛因斯坦和蒙娜麗莎 | Egor Zakharov/YouTube

這就是被稱為「生成對抗網路」(GAN)的一種深度學習技術。簡單來說,要偽造視頻,我們首先需要兩個神經網路來參與。網路A會生成一個假的視頻片段,然後問網路B這個視頻是否為真,網路B的反饋能夠加強網路A所生成圖像的可信度。前者被稱作生成網路,後者則為判別網路。

就這樣,兩個神經網路在不斷對抗中學習,直至Deepfake生成以假亂真的視頻。

2017年12月

Reddit網友「Deepfakes」在社區r / deepfakes發布偽造的名人色情視頻,其中包括演員斯嘉麗·約翰遜、歌手泰勒·斯威夫特和凱蒂·佩里等人。Deepfakes聲稱自己所使用的是多個深度學習的開源庫,例如Google 的人工智慧框架TensorFlow。

2018年1月

能夠換臉的軟體FakeApp推出,該軟體同樣基於TensorFlow開發。

2018年2月

Reddit禁止用戶在r / deepfakes分享深度學習偽造的非自願色情內容,Twitter和成人視頻網站Pornhub也在隨後做出類似舉動。

2018年9月

Google在禁止列表裡添加了「非自願合成色情圖像」,允許任何人請求搜索引擎封鎖有關自己的虛假色情內容。

2018年12月

斯嘉麗·約翰遜在《華盛頓郵報》公開談論Deepfake事件:「任何人都會成為目標,這只是時間問題」。

2019年2月

26日,一段楊冪的換臉視頻躥紅網路。名為「換臉哥」的B站Up主通過Deepfake修改了94版《射鵰英雄傳》的視頻片段,將朱茵的臉換成楊冪的臉。2月27日,「換臉哥」發布微博稱「及時下架了相關視頻」,並指出「大家應尊重版權與肖像權,專註於技術本身」。

2019年6月

DeepNude的Windows和Linux程序公開下載,該程序能夠將圖像中女性的衣物刪除。6月27日,DeepNude的開發者關閉該程序。

不只是隱私問題

如今,Deepfake讓「眼見不一定為實」有了新的詮釋。「無圖無真相」的時代早已過去,換臉、換頭甚至換聲音的技術讓真相變得更加撲朔迷離

在國外媒體BuzzFeed通過FakeApp製作的一段視頻中,你可以看到電影製作人喬丹·皮爾(Jordan Peele)充當奧巴馬所發表的講話。

BuzzFeed視頻片段 | BuzzFeedNews

「這是一個危險的時代。我們在互聯網所相信的東西,我們對此應該更加警惕。」皮爾假扮的「奧巴馬」說。

值得注意的是,像Deepfake和FakeApp這樣的技術和程序已經有很多了。由德國研究人員開發的Face2Face,能實時捕捉人的面部圖像,並將其移植到另一個視頻中。人的神態和動作也能被輕易模仿,通過斯坦福大學的研究人員開發的「深度視頻肖像」( Deep Video Portraits)技術,你能像操控牽線木偶一般生成假視頻——實現轉頭、做出表情、注視和眨眼等動作。

與此同時,聲音也能被偽造了。早在2016年,Adobe就展示了自己的Voco軟體(至今仍未發布),該軟體只需要20分鐘的目標語音,就能生成聽起來十分相似的語音。創業公司Lyrebird的產品聲稱,只用一分鐘的音頻就能模仿任何人說話。而百度推出的Deep Voice演算法,甚至將生成假音頻所需的音頻時間減少到3.7秒。

DeepNude官方推特的聲明 | deepnudeapp/Twitter

在這些技術的加持下,輕易就能偽造卻難以辨偽的內容,可能讓社會面臨種種威脅,而色情視頻只是其中一個縮影。評論者們指出,任何人都將無法保護自己的隱私權和肖像權,假新聞更容易猖獗,政客甚至可以用其攻擊競爭對手,別有用心的人可能藉此影響股市等。個人信息的安全也更難保證,合成的語音或視頻將欺騙生物驗證,例如需要真人才能驗證的語音和面部識別。

但更令人擔憂的問題在於,FakeApp和ZAO這樣的AI程序正在變得唾手可得。更多人能夠接觸到這類AI技術,意味著其被濫用的可能性也相應增加了

如何揭露真相?

面對Deepfake的泛濫,一個很自然的解決方法是,技術引發的問題交給技術來解決

從技術上來說,Deepfake會在篡改視頻上留下可預測的偽造痕迹,而深度學習演算法能夠檢測到它們。這些演算法是公開的,也有像羅切斯特理工學院的馬特·懷特(Matt Wright)這樣的研究者,正在嘗試搭建能夠探測假視頻的網站,用戶可以在時間軸上看到視頻可能被篡改的位置。而對於Facebook這樣的大平台來說,他們也會用自己開發的演算法來過濾假視頻。

美國國防部高級研究計劃局(DARPA)已經專門成立「媒體取證」項目(The Media Forensics)來解決Deepfake帶來的問題,並資助研究者探索自動檢測Deepfake的最佳方法。其中一個受到資助的研究團隊發現,可以通過分析視頻中的眨眼來辨別Deepfake,因為名人眨眼的照片並不多

視頻片段,蓋爾·加朵的臉被放在了色情電影演員的身上 | vice.com

在推進假音頻檢測的過程中,Google在2019年的ASVspoof挑戰中為開發人員提供了合成語音的數據集,幫其開發更安全的自動語音驗證系統。除此之外,甚至還有更為硬核的研究:檢測Deepfake音頻的不再是AI本身,而是小鼠。

在最近的一項研究中,俄勒岡大學的研究人員成功訓練老鼠來檢測假的語音。通過讓小鼠辨別輔音,例如不同語境中「buh」和「guh」的區別,小鼠能夠以80%的準確度辨別真假語音。研究人員表示,用小鼠模型來研究複雜聲音處理是很有前景的,「研究哺乳動物的聽覺系統檢測音頻的計算機制,有助於研究下一代的欺騙檢測通用演算法」。

除技術之外,我們還有辦法應對Deepfake的橫行嗎?目前的Deepfake還無法做到非常逼真,因此有些細微瑕疵還是能夠通過肉眼識別。為此,Buzzfeed總結了一些辨別方法:

1.不要妄下結論;

2.考慮內容的來源;

3.驗證這些內容都出現在哪些地方;

4.檢查人物的嘴部動作;

5.放慢視頻,仔細觀察。

然而在這個「後真相」的時代,我們很難奢求所有人都花心思去辨別一個視頻的真偽。而在全民「ZAO」臉的狂歡下,已經輕易將自己的肖像拱手相讓的我們,會有心思去辨別什麼是真,什麼是假嗎?

參考文獻:

[1]https://www.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn

[2]https://www.washingtonpost.com/technology/2018/12/31/scarlett-johansson-fake-ai-generated-sex-videos-nothing-can-stop-someone-cutting-pasting-my-image

[3]https://www.law.com/legaltechnews/2019/03/19/harvard-and-mit-fund-deepfake-detection-government-transparency-ai-tools/?slreturn=20190801224307

[4]https://spectrum.ieee.org/tech-talk/robotics/artificial-intelligence/experts-bet-on-first-deepfakes-political-scandal

[5]https://www.axios.com/the-coming-deepfakes-threat-to-businesses-308432e8-f1d8-465e-b628-07498a7c1e2a.html

[6]https://www.axios.com/deepfake-audio-ai-impersonators-f736a8fc-162e-47f0-a582-e5eb8b8262ff.html

[7]https://www.theverge.com/2019/3/5/18251736/deepfake-propaganda-misinformation-troll-video-hoax

[8]https://www.alienvault.com/blogs/security-essentials/deepfakes-are-a-problem-whats-the-solution

[9]https://www.buzzfeed.com/craigsilverman/obama-jordan-peele-deepfake-video-debunk-buzzfeed

[10]https://web.stanford.edu/~zollhoef/papers/CVPR2016_Face2Face/page.html

vice.com/en_us/article/d3wd3k/gfycat-fighting-ai-porn-deepfakes-fake-news

[11]https://www.pcmag.com/news/370040/how-lab-mice-are-helping-detect-deepfakes

[12]https://www.governmentciomedia.com/darpa-tackles-deepfakes-ai

[13]https://www.buzzfeednews.com/article/davidmack/obama-fake-news-jordan-peele-psa-video-buzzfeed#.gcxNolpGL

作者:EON

編輯:八雲

一個AI

AI不壞,但要看你怎麼用。

本文來自果殼,未經授權不得轉載.

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 果殼 的精彩文章:

杜蘭特跟腱斷裂,他還能回到賽場嗎
食物加熱會損失營養?生吃真的更健康嗎?

TAG:果殼 |