特朗普也中招,AI換臉技術的邊界在哪兒?
繼神奇女俠蓋爾·加朵「被下海」以後,AI 「換臉術」已經蔓延到越來越多的領域,這次的受害者是美國總統特朗普。
近日 Youtube 上出現了一段以假亂真的特朗普視頻(鏈接在這裡,需要特殊的上網技巧),其原視頻是 Alec Baldwin 周末晚間秀中對特朗普的模仿,一位的 UP 主 「 derpfakes 」 用 AI 技術將 Alec Baldwin 的臉換成了特朗普的臉。
作為原視頻,右為換臉版本
如果對比著看,你會發現右邊的修改版本,相較於原視頻有些失真,臉上也少了不少細節。但這是在對比的情況下,如果單拿出來,這個視頻足以以假亂真,不仔細觀察根本看不出有什麼破綻。
無獨有偶,另一位 Youtube UP 主,將2004年的電影《帝國的毀滅》中 Bruno Ganz 扮演的希特勒的臉,換到了現任的阿根廷總統 Mauricio Macri 臉上。
還是那句話,仔細看還是有些彆扭,但有多少人願意去摳這些細節?況且技術實在不斷發展的,幾年以後,不用技術手段就無法辨別的模仿技術定會出現。
造假視頻的泛濫,主要是因為這種技術的實現門檻實在太低了。製作出蓋爾·加朵等人「下海視頻」的是一位名為「deepfakes」的美國網友,這位仁兄不僅技術高超,還非常有開源精神,他無償地分享了自己的技術成果,甚至非常「貼心」地製作了視頻教程,只要有耐心,幾乎任何人都可以跟隨教程製作出像樣的「換臉」視頻。
此前虎嗅文章《「換臉術」即將帶來的「福利」與恐慌》曾提到:
這裡隱藏的真正問題,在於利用開源的AI架構進行視頻換臉這件事,不是太複雜太前衛了,而是太簡單太容易了。
為了驗證這點,我先後把deepfakes分享的視頻和代碼發給了三位從事機器視覺相關工作的朋友,得到的反饋基本一致:這東西毫無技術難度。只要會用TensorFlow的基礎功能,電腦顯卡不至於太爛,差不多幾個小時就可以搞出來一個。
哪怕連編程基礎都沒有的人,跟著教程一步步走,搜集足夠多的素材,也可以自己搞出來換臉視頻。
對此,Deepfakes這麼解釋:「每個技術都可能被用來做壞事,這個我們攔不住,我不認為讓每個普通人參與到機器學習的研究中來是一件壞事。」
雖說技術進步是好事,但這也意味著造假的成本進一步降低,而人們分辨真偽的成本被前所未有的抬高。如果你從未聽說過有所謂的「AI 換臉術」,面對視頻里活靈活現的真人,是非常難以辨別真偽的。
在此之前,此項技術還只是用來滿足部分群體的自娛自樂,雖然不可避免地會對明星們的聲譽造成不好的影響,但涉及到的還只是侵權等方面的問題。但如果任由技術濫用,將會有更多現實問題出現,比如詐騙、勒索,甚至對社會和政治造成惡劣影響。
此前 Facebook 曾公布數據,俄羅斯過去兩年在Facebook上發表了8萬多篇試圖影響美國政治的帖子,大約有1.26億美國人看過這些內容。雖然無法統計有多少人看了這些帖子就改變選票,但你沒法保證它是毫無影響的。
而如果一旦這種造假視頻,被當作某種政治手段大規模使用,欺騙性會更高,會有更多的人被蒙蔽,從而對政治走向造成影響。最好的例子就是美國大選,如今美國大選的勝利似乎已經成為了人設的勝利,看你順眼就投你。但如果大選期間,有幾個偽造的視頻出現,勢必會掀起不小的波瀾。「造謠一張嘴,闢謠跑斷腿」,即便能證明視頻系偽造,其所造成的影響一時半會是不會輕易消除的。
畢竟群眾總是盲目的,當他看到一個獵奇的視頻是更願意傾向於相信,而不是去了解晦澀的技術手段去辨別真偽。
什麼,你說人們不會被虛假視頻忽悠?好,請你告訴我,下面這個奧巴馬踹門的片段是真是假?
目前來看,「Deepfakes」還沒有得到有效的監管。雖然美國一些圖片、視頻網站已經開始訓練自己的 AI 模型以對抗造假視頻的泛濫,但這更多的還是民間行為,還沒有政府層面的機構出面進行相關干預。但隨著造假視頻涉及的範圍越來越廣,甚至開始拿政要開涮,估計離有關部門出來踩剎車的那天也不遠了。
自由是相對的,同理技術自由也是相對的,沒有被正確應用的技術,難免會走向另一個極端。
※IDG、經緯、紅杉……誰是2017年最活躍的VC?
※蘋果迎來最賺錢一季,但光憑「貴」還是有些危險
TAG:虎嗅APP |