神奇女俠「下海」拍片?別興奮,下一個可能就是你「老婆」!
文:李超凡
《神奇女俠》主演蓋爾·加朵「無碼三級片」流出,《哈利·波特》赫敏扮演者艾瑪·沃特森「床照」曝光,女神寡姐斯嘉麗·約翰遜「下海」拍片……
乍一看還以為好萊塢「艷照門」曝光了,正當宅男們搬好小板凳準備好好清潔一下屏幕時,可能就會發現有什麼不妥。
因為這都是視頻通過 AI 技術合成的,國外論壇 Reddit 上一位叫「 deepfakes」 的用戶利用 AI 工具將這些好萊塢女星的臉「換」到了色情影片的演員身上。
(蓋爾·加朵的臉被換到一個色情影片的演員上)
一開始這只是 deepfakes 的「自娛自樂」,可如今事件逐漸開始失控。
這些 AI 工具被做成了每個人都可以下載安裝的應用,於是一大批「名人色情電影」開始在互聯網上流傳,而一些用戶甚至將身邊的同學朋友變成了色情電影中的主角。
還記得前段時間讓不少家長瑟瑟發抖是兒童邪典視頻嗎?這些針對兒童製作的動畫或真人短片,充斥著血腥暴力和軟色情的內容。
Reddit 上的一篇文章曝光了這些兒童邪典視頻的幕後製作過程,將此事在互聯網上徹底引爆。而這次 Reddit 成了「AI 換臉色情電影」滋長的溫床。
兒童邪典視頻偃旗息鼓了,全民 DIY 色情影片的熱潮卻開始了。
近幾年人工智慧大潮方興未艾,霍金和埃隆·馬斯克預言的那個 AI 毀滅人類的世界或許不會到來,但 AI 引起的倫理道德危機和法律問題,已經成了這個互聯網世界不得不面對的問題。
女神怎麼成了色情影片的女主角?
去年 12 月,一段神奇女俠主演蓋爾·加朵的「成人短片」在 Reddit 上出現,引來眾多網友圍觀。
這段影片的製作者是一個網名為 deepfakes 的程序員,他在業餘時間用家裡的電腦和開源的 AI 工具,通過機器學習演算法,將蓋爾·加朵的臉「移植」到一位色情電影演員身上。
沉迷於此的 deepfakes 無法自拔,更多女明星紛紛中招。除了蓋爾·加朵,泰勒·斯威夫特、艾瑪·沃特森、斯嘉麗·約翰遜和麥茜·威廉姆斯(《權利的遊戲》的 二丫)都是 deepfakes 的得意之作。
(「中招」的明星們)
又是程序員,又是機器學習,看起來很有技術含量。實際上並非如此,deepfakes 在接受科技媒體 Motherboard 採訪時表示,自己不是專業的 AI 研究人員,只是一個對機器學習感興趣的程序員。
而 deepfakes 製作這些視頻所用到的工具和素材,都是在互聯網免費開放的。他使用的軟體技術是基於 TensorFlow 和 Keras 等開源軟體,而視頻素材則是通過 Google 圖片搜索、公開圖庫和 Youtube 等平台獲取。
deepfakes 利用這些工具和素材進行深度學習網路的訓練,經過反覆訓練後,系統就可以正確識別出蓋爾·加朵的面部信息,自動將色情影片中的人臉替換成蓋爾·加朵的臉。
一位人工智慧研究人員表示,像 deepfakes 製作的這類視頻的所需的硬體配置並不高,只需要一個消費級顯卡,花費幾小時就能達到這樣的效果。
據 deepfakes 在 Reddit 上的介紹,他使用的演算法與英偉達的一種 AI 演算法類似,這種演算法是生成式對抗網路(Generative Adversarial Network)。
顧名思義,這是由「敵對」的兩個機器學習模型組成。一個負責生成視覺數據,另一個負責鑒別,以此提高生成圖像視頻的真實性。英偉達利用這種演算法讓計算機根據夏天的場景視頻生成同一地點的冬季風光。
不過如果仔細觀看 deepfakes 製作的視頻,還是會發現很多破綻。比如在模擬蓋爾·加朵的這段視頻中,可以看到人物臉部輪廓有一條分界線,兩邊的膚色也不一致。在臉部運動時尤為明顯,感更像是戴上了一個逼真的人皮面具。
(左:P 得看不出破綻,右:破綻明顯,圖自:果殼網)
可作為一個程序員在業餘時間的作品,這樣的效果也算不錯了。實際上,類似的「換臉」技術也不新鮮,而且在電影業等商用領域,可以實現的效果還要逼真得多。
你可能還記得《指環王》里的咕嚕、《猩球崛起》里表情豐富的凱撒,甚至是郭敬明那部《爵跡》里眾多的面癱角色,這些形象都是通過對肢體動作和面部表情的動作捕捉實現的。
(《指環王》中咕嚕扮演者,當時的造型是這樣的,圖自:naturevideo)
這樣的技術在影視工業領域的應用已經十分成熟,但一般成本較高,耗費時間長。比如面部捕捉需要在演員臉上貼滿追蹤點,用頭戴式高速攝影機捕捉面部肌肉動作,最後在後期轉為 CG 畫面。
此外通過 CGI 技術甚至可以在大屏幕「復活」已經去世的演員,比如在拍攝《速度與激情 7》中意外去世的保羅·沃克就是通過這種技術重現在大屏幕中。
近幾年隨著人工智慧技術的發展,這樣的面部捕捉技術也不再是電影行業的專利。去年 7 月份,美國華盛頓大學的研究者們就利用人工智慧以及數字圖像合成技術,生產了一段真假難辨的奧巴馬演講視頻。
(你能分辨哪個才是真的奧巴馬嗎?圖片來源:YouTube)
而一款基於人工智慧技術的實時視頻模擬軟體 Face2Face 也能做到類似的效果,使用者只需在軟體中輸入一個人臉說話的錄像,就可以通過演算法分析生成對應的人臉模型,之後套用該模型就可以生成以假亂真的人物形象。
(Face2Face 工作原理,圖自:YouTube)
Face2Face 開發者 Justus Thies 在當時已經意識到了這項技術的危險性,他在一次接受採訪的時候表示:
如果這類視頻軟體得到廣泛應用的話,將會對社會造成劇烈的影響。這也是為什麼我們不把軟體代碼開源的原因之一。如果讓不成熟的人接觸到這類軟體,將會大大提升網路霸凌的等級。
遺憾的是,這個潘多拉魔盒已經被打開了。
超低門檻 ,全民 DIY 色情影片
自從一些媒體報道了 deepfakes 製作的「名人色情影片」後, deepfakes 繼續製作著這些視頻,並獲得了給你更多人的關注,其在 Reddit 上的專欄在不到兩個月內就聚集了超過 15000 名用戶。
其中一名位「deepfakeapp」用戶不滿足於只是觀看 deepfakes 製作的視頻,基於deepfakes 所用的演算法,製作了一款簡單易用的應用程序 FakeApp,讓每個用戶都可以利用手中的數據偽造色情影片。
在維基百科上,FakeApp 的詞條是這樣描述的:
FakeApp 是一款社區開發型的桌面應用程序,無需安裝 Python 和 Tensorflow 等編程語言和開源軟體庫就能運行,不過需要 CUDA 支持的一個高性能的 GPU 才能順利運行。
如果用戶沒有合適的 GPU 也沒關係,通過 Google 雲服務租用這種 GPU 即可。
deepfakeapp 表示只要只要一兩個目標人物的高清視頻, 8 到 12 小時可以製作一條自動換臉的色情影片,超低的門檻讓一大批用戶加入到這種視頻的製作和分享中。
Justus Thies 的預言一語成讖,超低門檻的工具讓這項技術走向不可控。
很快在 Reddit 上就湧現了一大批「名人色情影片」,愛范兒梳理了一下 Reddit 上被用於偽造色情影片的女明星,其中艾瑪·沃特森(《哈利波特》)、娜塔莉·波特曼(《這個殺手不太冷》)和斯嘉麗·約翰遜(黑寡婦)是被用到較多的明星。
而部分視頻的模擬度甚至比起 deepfakes 一開始製作的視頻還要高,大家可以簡單感受一下:
蓋爾·加朵
(偽造視頻)
(真人)
艾瑪·沃特森
(偽造視頻)
(真人)
斯嘉麗·約翰遜
(偽造視頻)
(真人)
娜塔莉·波特曼
(偽造視頻)
(真人)
不少 「名人色情影片」 的製作者還會在 Reddit 上交流製作心得,一位「UnobtrusiveBot」利用 FakeApp 將女星 Jessica Alba (《神奇四俠》)的臉放到了一位色情影片演員上:
超級快!只需要學習如何重新訓練模型,大約 5 小時就搞定了。
(Jessica Alba )
而這正是 FakeApp 開發者 deepfakeapp 的初衷,他在 Reddit 上 表示:
我之所以開發 FakeApp,就是為了讓沒有技術背景和編程經驗的人都可以用上這種技術。
當然也不是所有用戶都那麼順利,比如這位叫「MrDrPresidentNotSure」的用戶就翻車了。
這些視頻被當成是真的在色情網站上傳播,在一個專門泄露名人隱私照和視頻 的網站 CelebJihad,有人上傳了一段艾瑪·沃特森洗澡的視頻,並聲稱這是其收藏的獨家視頻。實際上這段視頻就是 deepfakes 發布在 Reddit 上的視頻。
更要命的是,就像直播答題的火爆讓答題助手應運而生,一些輔助偽造色情視頻製作的 AI 工具也誕生了。
這些工具可以用於幫助用戶找到與目標人物匹配的色情影片演員,比如這款叫 「Porn Star By Face」的工具,聲稱是首個基於深度神經網路的面部識別搜索引擎,只要你上傳想要用於偽造色情影片的女明星照片,系統就會自動匹配到相似度最高的色情影片演員。
愛范兒用兩位女神的照片測試了一下,發現結果其實也並不理想。
類似這樣的平台還有很多,其中一個叫「Face By Porn」的平台表示其資料庫中共有 2347 名色情電影演員,是從 Pornhub、YouPorn 等色情網站上抓取的。
(左為《古墓麗影》的Lara Croft,右為成人影片演員)
視頻分析平台 Pulsar 的數字媒體總監 Jay Owens 在接受 Motherboard 採訪表示:
這樣的視頻在社交和文化層面都有比較強的滲透性,基於社交平台的娛樂屬性,那些「名人色情影片」擁有了更好的傳播效果。
下一個被「不可描述」的可能就是你
事情發展到這還遠沒有結束,此前一些視頻用的都是公眾人物的素材,一些吃瓜群眾還看得挺過癮。
可當這樣的事情發生你自己、親人和朋友身上時,你還會這樣想嗎?
在社交軟體 Discord 的一個名為 「deepfakes」的聊天小組,一些用戶稱他們正在利用身邊的熟人和朋友的素材製作這種偽色情視頻。其中一位用戶表示,他利用的素材來自高中女同學的 Instagram 和 Facebook 賬號中的公開照片。
而在 Reddit 上,每天都能看到不少製作這種視頻的教材和求教程的用戶。而決定將這項技術用在什麼人身上,全憑使用者的意願。
在如今的社交網路,要找一個人的照片資料十分簡單。這幾乎註定了普通人也會成為這項技術的受害者,甚至會出現一種更為嚴重的性騷擾行為。
此前在 Facebook 上已經出現了非常嚴重的「復仇色情」現象,所謂「復仇色情」,就是某些人在分手後為了報復將前女友裸照上傳到網路平台上的行為。
目前 Discord 已經關閉「deepfakes」這個聊天小組,可是在只要這種技術還是如此容易獲取,這樣的視頻和對普通人造成的傷害還會互聯網的某個角落再次發生。
「AI 色情」泛濫,難道就不能避免嗎?
看了上面的介紹,你可能會有這樣一個疑問:
這樣一個侵犯公民人身權利、傳播淫穢色情影像的平台和技術,難道不能對其採取法律手段打擊嗎?
很遺憾,還真未必可以。
(在一些成人影片開頭,還會有來自 FBI 的版權聲明)
另一方面,這樣未經同意使用他人照片製作這種視頻確實涉嫌侵犯了公民肖像權等權利,但是在美國的法律中還存在很大的灰色空間。
邁阿密大學法學院教授 Mary Anne Franks 在接受《連線》雜誌採訪時表示,那些被用來製作色情視頻的名人或許有機會維權,但對於普通人來說希望渺茫,因為就算是針對「色情報復」的法律也不適用於這種「AI 色情視頻」。
這些視頻所涉及的技術,反而為他們的製作者提供了巨大的法律保障。
馬里蘭大學的法學教授 Danielle Citron 也對此略顯無奈。打擊這種視頻傳播的責任只能落在了眾多互聯網平台身上。
(Reddit 中 deepfakes 帖子的 18 歲准入提醒,可是形同虛設)
更糟糕的是,隨著人工智慧技術的發展,這項技術將無可逆轉地日趨完善,甚至到達機器也無法區分的程度。
所幸人們已經開始意識到這項技術的危害性,一些平台開始開發對應的屏蔽機制。正如弗吉尼亞大學工程學院應用倫理學名譽教授 Deborah Johnson 所說:
這項技術的創新之處在於將 AI 生成的臉做到難辨真假的效果,而這項技術的可怕之處在於社會中每個人都能輕易使用這種技術。
這樣的技術正在讓世界變得不穩定,甚至這個社會商業以及信用體系也隨之崩塌。
雖然這樣的視頻在中國還沒出現,但如何更好地與新科技相處,是每個時代每個社會都需要思考的問題。
TAG:愛范兒 |