當前位置:
首頁 > 最新 > AI引發網路信任危機!我們還能相信什麼?

AI引發網路信任危機!我們還能相信什麼?


  來源:環球科學ScientificAmerican


  快速發展的AI技術能夠自動創建虛假的視頻和音頻。通過社交媒體傳播這些有意製造出的虛假信息,可能會對公共話語和政治穩定產生深遠影響。計算機科學家正在開發人工智慧檢測工具來標記虛假視頻,但與生成這些虛假內容的能力相比,科學家遠遠落後。當虛假視頻的病毒式傳播侵蝕我們對媒體的信任,我們該相信什麼?


  今年4月,美國前總統奧巴馬的一個視頻出現在了互聯網上。該視頻看起來和他之前的演講很像。他穿著清爽的白襯衫和深色西裝,領子上別著一個國旗胸針。背景中有美國國旗和總統旗幟。視頻中,奧巴馬面對鏡頭,伸出雙手強調自己的話:「特朗普總統是一個完完全全的蠢貨。」

  視頻中的奧巴馬沒有一絲笑容,他接著說:「要知道,我永遠不會說出這樣的話,至少在公共場合不會。但別人會的。」視頻鏡頭轉到分屏,屏幕上是演員喬丹·皮爾(Jordan Peele)。其實奧巴馬什麼都沒說,這段視頻是奧巴馬真實演講視頻與皮爾的模仿視頻混合而成的。



  在現在這個充斥著虛假新聞的時代,這段視頻實際上是由BuzzFeed News製作的公益廣告,它展示了新型人工智慧(AI)技術的一種應用,把該技術用在音頻和視頻上,就像把Photoshop軟體用在數字圖像上一樣:能讓人們操縱現實。


  這樣做出的視頻還相當粗糙。不過,這種原本為好萊塢電影編輯和視頻遊戲製造商開發的技術進步很快,已經引起了一些國家安全專家和媒體學者的擔憂。下一代的工具有可能無中生有地炮製出足以亂真的虛假內容,不用歪曲現有視頻(如奧巴馬的演講視頻),而是編造根本從未發生過的情景。

  無害的開端


  偽造視頻的歷史可以追溯到上世紀60年代,當時用計算機生成的圖像首次誕生。上世紀80年代,這些特效逐步成為主流。從此以後,電影愛好者見證了這種技術的進化。南加利福尼亞大學計算機科學助理教授、從事增強現實業務的創業公司Pinscreen的首席執行官黎顥表示,這種技術的目標一直是「打造一個任何故事都可以呈現的數字世界。我們怎樣才能創造出看上去無限真實,但實際上一切都是虛擬的東西?」


  一開始,大多數數字圖像都是藝術家創作的,他們使用計算機創建三維模型,然後手工繪製紋理和其他細節,這是一個不可擴展的繁瑣過程。大約20年前,一些計算機視覺研究人員開始從不同的角度思考這個問題:「與其在個別模型上花費時間,為什麼不教計算機根據數據創建圖形呢?」 1997年,位於加利福尼亞州帕洛阿爾托的Interval研究公司的科學家開發了Video Rewrite,這個軟體可以切割現有視頻,並重新配置。不久之後,德國馬普生物控制研究所的科學家從200個人臉三維掃描圖像的數據集中提取特徵,教會了計算機生成新面孔。


  隨著深度學習這種人工智慧技術的進步,計算機視覺、數據和自動化之間的關係在2012年迎來了近期最大的一次飛躍。與20世紀90年代後期使用靜態數據、無法改進結果的技術不同,深度學習能夠適應新數據,且可不斷改進。德國馬普科學史研究所的博士後研究員李曉暢說,這項技術可以將目標(比如一張臉)簡化為數據。


  深度學習使用了許多層名為神經網路的簡單數學模型,隨著時間的推移,它的效果會變得越來越好。比如,計算機科學家可以教會深度學習工具識別人臉,方法就是給它看成百上千張照片,並告訴它每張照片是不是人的面孔。最終,當工具遇到一張沒見過的人臉時,也可以識別出構成人類特徵的模式,並且可以得出結論:在統計學上講,這也是一張臉。

  接下來,使用名為生成網路的深度學習工具,研究者有能力創造出看起來如同真人的面孔。其中的邏輯與剛才類似:計算機科學家還是用成百上千幅圖像訓練網路。但這一次,網路會按照從示例中學習到的模式,繪製出一張新的面孔。一些公司現在正使用同樣的方法來處理音頻。今年早些時候,谷歌推出了Duplex,這是一款基於WaveNet軟體的人工智慧助理,它可以打電話,聽起來就像真人一樣,甚至對語氣詞的運用都完全一樣,比如「呃」和「嗯」。


  但是生成網路需要大數據集來訓練,這可能需要大量的人力。改進虛擬內容的下一步是教AI實現自我訓練。2014年,蒙特利爾大學的研究者通過生成對抗網路(generative adversarial network, GAN)實現了這一目標,這種技術讓兩個神經網路對話。第一個是生成器,它製作虛假的圖像,第二個是判別器,負責學習區分真假。在幾乎沒有人類監督的情況下,該網路通過競爭相互訓練:判別器推動生成器製造出越來越逼真的虛假圖像,而生成器一直試圖騙過判別器。GAN可以製作各種各樣的東西。在加利福尼亞大學伯克利分校,科學家構建了一個可以將馬的圖像變成斑馬的GAN網路,也能將莫奈(Monet)等人的印象派畫作變成清晰、逼真的場景。


  接著,在今年5月,德國馬普信息學研究所的研究人員發布了「深度視頻」(deep video)。這個系統使用了一種生成對抗網路,它可以讓演員控制現成影片中他人嘴巴、眼睛和面部的動作。深度視頻目前僅適用於人物特寫鏡頭,這類鏡頭中人要直接看著攝像機。如果演員的動作幅度太大,所得到的視頻就會出現明顯的破綻,比如臉部周圍的像素模糊等。



  到目前為止,GAN還沒有能力在視頻中創造出可以亂真的複雜場景。有時GAN會產生奇怪的錯誤,比如讓人的眼球從前額長出來。不過今年2月,英偉達公司的研究人員找到了一種方法,可以讓GAN生成令人難以置信的高解析度面部圖像。他們一開始先用相對較小的照片進行訓練,然後逐步增加訓練圖像的解析度。南加利福尼亞大學的黎顥團隊使用GAN製作出了逼真的皮膚、牙齒和嘴巴,這些都是在數字化重建中尤為難以處理的部位。

  對非專業人士來說,這些技術都很難運用。但BuzzFeed的實驗暗示了我們可能的未來。它發布的那段視頻來自名為FakeApp的免費軟體,該軟體使用深度學習,而不是GAN。由此產生的視頻被稱為「Deepfake」,即「深度學習」和「虛假」的混合詞。現在這個技術已經普及化,任何擁有計算機的人都能夠使用。


  假新聞泛濫?


  專家們一直擔心計算機輔助編輯會對現實造成破壞。早在2000年,《麻省理工技術評論》中關於Video Rewrite等產品的一篇文章就警告稱,「眼見不再為實」,「晚間新聞中的圖像可能是假的,是高速的新視頻處理技術做出來的。」18年後的今天,新聞節目中似乎並沒有充斥著虛假視頻。首先,要偽造一段高質量的視頻仍然很困難。在專業視頻編輯的幫助下,BuzzFeed花了56個小時才做出虛假的奧巴馬視頻片段。


  然而,我們消費信息的方式已經發生了變化。據皮尤研究中心的數據顯示,今天只有大約一半的美國成年人通過電視看新聞,而三分之二的人至少會通過社交媒體獲取一部分新聞。互聯網讓迎合細分觀眾群體的媒體繁榮起來,這些媒體不受傳統新聞標準的束縛。珀西利表示,互聯網有利於那些病毒式傳播的內容,讓我們能夠以前所未有的速度分享它們。與客廳的電視屏幕相比,虛假視頻中的瑕疵在移動設備屏幕上更難辨別。

  關於假新聞的科學研究還很有限。不過一些研究表明,人們只要看過一次虛假信息,以後再看到它時,就會覺得可信,加拿大里賈納大學組織行為學助理教授戈登·彭尼庫克(Gordon Pennycook)說。他表示,目前尚不清楚這是為什麼,但可能要歸功於假新聞的 「流利度」(fluency),或者說「處理這類信息的便利度」。


  麻省理工學院有一項研究在推特上追蹤了2006年至2017年的12.6萬條新聞,結果顯示,我們同樣更有可能分享虛假新聞,而不是真實新聞。尤其是虛假的政治新聞,這類內容比那些有關金錢、自然災害或恐怖襲擊的文章傳播得更廣、更快。該研究表明人們渴望新奇的內容。假新聞一般會巧妙利用我們的情緒和個人身份,誘使我們在有機會消化處理信息,決定其是否值得傳播之前做出反應。這類內容越是讓我們驚訝、恐慌或憤怒,我們就越傾向於將其分享出去。


  有許多令人不安的線索表明,視頻在引發恐懼上可能特別有效。布朗大學認知、語言和心理學助理教授埃莉諾·阿米特(Elinor Amit)說:「當你通過視覺處理信息時,你會認為這件事在空間、時間或社會群體方面與你更接近。」她的研究分析了我們對文本和圖像信息的不同反應。阿米特推測這種區別是源於演化的,我們的視覺是在書面語言誕生之前演化形成的,我們更多依靠自己的感覺來發現直接的危險。



  所有這些令人擔憂的事件,還只是問題的一部分。對社會來說,我們設想的情況實際上可能比視頻本身更糟糕。比如,一些人在自己真正的錯誤被抓住時,可能會宣稱這些視頻是偽造的,故意把水攪渾。路易斯安娜州立大學大眾傳播學副教授雷蒙德·J·平格里(Raymond J。 Pingree)表示,當知道可以亂真的虛假視頻可能存在時,我們會喪失對所有媒體的信任。平格里研究人們對自身分辨真假能力的自信心,以及這種自信對其參與政治活動的意願有何影響。他說,當人們失去這種信心時,就會更容易輕信騙子和謊言,而且「這會讓他們不再想去尋求真相。」


  貓鼠遊戲


  對於計算機科學家來說,要解決一個bug通常要靠更完善的計算機科學。雖然本文中討論的bug要比編碼錯誤複雜得多,但計算機科學界還是認為可以編寫演算法來標記虛假視頻。


  到目前為止,有兩類方案。第一種是通過嵌入數字簽名證明視頻是真實的,類似於複雜的水印、全息圖,以及其他印鈔廠用於防偽的方法。每個數碼相機都有一個獨特的簽名,從理論上講,這種簽名很難複製。 


  第二種策略是使用探測器自動標記假視頻。可以說,這種探測器最重要的研發動力來自美國國防部高級研究計劃局(DARPA)的一項名為Media Forensics(MediFor)的項目。MediFor採用了三種應用廣泛的方法,這些方法可以通過深度學習實現自動化。第一是檢查視頻的數字指紋,看看有無異常情況。第二是確保視頻內容遵循物理定律,比如視頻中的陽光照射情況是否與現實世界相符。第三是檢查外部數據,比如拍攝當天的天氣情況。 DARPA計劃將這些探測方法統一到一個工具中,為視頻評分,估算它有多大的可能是偽造的。


  這些策略可以減少虛假視頻的數量,但說到底仍然是一個貓捉老鼠的遊戲,視頻偽造者會模仿數字水印或建立深度學習工具來欺騙探測器。「我們不會贏得這場比賽,」阿列克謝·埃弗羅斯(Alexei Efros)說,他是加利福尼亞大學伯克利分校計算機科學和電子工程教授,正在於MediFor項目合作,「我們只是會讓壞人在比賽中越來越艱難。」


  拯救現實


  即使我們每個人最終都可以使用探測器來分析互聯網,但真相總會滯後於謊言。所以,如何阻止足以亂真的虛假視頻的傳播,對社交媒體行業來說是一個挑戰。


  我們還不清楚,在遏制病毒性傳播的虛假信息方面,社交媒體企業有哪些法律上的義務,我們也不知道是否可以在不踐踏言論自由的前提下對該行業進行監管。Facebook首席執行官馬克·扎克伯格(Mark Zuckerberg)最終承認,Facebook在傳播虛假新聞方面發揮了作用。


  從那以後,扎克伯格承諾要採取行動。他讓Facebook用戶承擔部分責任,對新聞來源的可靠性進行排名(一些人認為這是在推卸責任),然後利用AI來標記錯誤信息。Facebook一直對這套方法的細節守口如瓶。一些計算機科學家對其中AI參與的部分持懷疑態度,其中包括法里德,他表示這些承諾「非常天真」。很少有獨立的科學家能夠研究Facebook上的假新聞是如何傳播的,因為大部分數據都是不對外公開的。


  還有,如果開發虛假視頻技術的研究者在離開實驗室後,不關心自己的技術是被如何使用的,不去對抗濫用,那麼世界上所有演算法和數據都無法從虛假消息的海洋中拯救我們。「這是我的請求,」斯坦福大學法學教授納特·珀西利(Nate Persily)說,「從事這項研究的科學家必須與心理學家、政治學家和傳媒專家合作,後者已經研究這些問題有一段時間了。」而目前這種合作仍很少見。


  由於這還是一個責任真空地帶,根除虛假視頻的任務就落在了記者和網民偵探身上。在奧巴馬和皮爾的Deepfake虛假視頻結束時,視頻中的兩人都表示:「未來,我們需要對互聯網保持警惕。在這個時代,我們需要依賴可靠的新聞來源。」這個視頻可能是虛假的,但最後這句話說得一點不錯。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新浪科技 的精彩文章:

智力的第二種起源?它們看似普通,卻擁有最難得智慧
新實驗稱地球生命基礎物質很可能來源於彗星

TAG:新浪科技 |