當前位置:
首頁 > 新聞 > AI版紙牌屋:特朗普團隊操縱大數據+AI左右競選引輿論嘩然

AI版紙牌屋:特朗普團隊操縱大數據+AI左右競選引輿論嘩然

一家名叫Cambridge Analytica的數據分析公司成了這兩天新聞的焦點,他們使用大數據和AI分析Facebook用戶資料,操縱輿論幫助特朗普競選。研究早已發現,機器能比人類更加精準地掌握人類的性格。AI和大數據正在成為強大的政治武器,假新聞、機器人水軍、AI換臉既成為一種技術現象,也是一種社會現象,是我們每個人都需要面對和思考的問題。

新智元報道

來源:vox, theguardian.com, PNAS

作者:聞菲、張乾

消息已經出來了:俄羅斯大選,弗拉基米爾·普京輕鬆贏得了第四個任期,對70%的得票進行抽查的結果顯示,普京得票率為75.91%。

民意調查顯示,普京的支持率遠遠超過其他對手,當選可以說是早成定局。然而,針對俄羅斯的這場大選,舞弊的質疑聲不絕於耳。此前俄羅斯非政府研究機構利華達中心的一項調查結果,有58%的選民計劃抵制這次選舉。普京最有力的競爭對手,也因欺詐罪被送入牢獄,未能參加此次選舉。

另一邊廂,美國的特朗普也不得安生。關於他2016年操縱輿情當選總統的報道再一次飛滿天,其中也包括他與俄羅斯勾結的可能。美國這邊的輿論風暴更加猛烈,而位於暴風中心的,是一家數據分析公司,以及這家公司使用的方法——人工智慧

這家叫做Cambridge Analytica的公司是這兩天全美關注的焦點。公司內部人士走向前台,主動公開Cambridge Analytica非法獲取超過500萬Facebook個人賬戶信息,然後使用這些數據構建演算法,分析Facebook用戶個性資料,並將這些信息與他們的投票行為關聯起來。

演算法和大數據兩相結合,形成了一種強有力的政治武器,讓競選團隊能夠準確識別在兩位候選人之間搖擺不定的選民,並有針對性地製作和投放廣告。

根據這位吹哨人的表述,Cambridge Analytica使用這些非法得來的數據,最終目標是「利用這個訓練集,構建一個理解Facebook用戶個人資料的『黃金標準』」。


大數據和AI在競選中的力量:機器能比人更加精準地掌握人類性格

Cambridge Analytica首席執行官Alexander Nix在2016年的一次演講中,詳細闡述了這家公司的方法論:「我們推出了一個長表(long-form)量化工具來探究人格的基本特徵。如果你知道了目標人物的個性,你就可以細化信息,更有效地與這些關鍵群體產生共鳴。」

Cambrige Analytica CEO 在會上演講《大數據和心理分析在競選中的力量》

Cambridge Analytica通過收集到的數據——我們先把數據收集方法放在一邊——建立了模型,並將其轉化為美國成年人的個性概況。Nix聲稱,他們「在美國每個成年人身上大約有4000或5000個數據點(data points)」。

他們模型的基礎,是Michal Kosinski的心理測量學研究,Kosinski在2013年是劍橋大學的一名博士候選人(這也是Cambridge Analytica公司名字的由來)。Kosinski和他的同事開發了一個模型,將受試者在Facebook上的點贊(like)與他們的OCEAN分數聯繫起來。OCEAN是心理學家使用的一種調查問卷,描述了五個維度的人格——開放(openness to experience)、自律(conscientiousness)、外向(extraversion)、隨和(agreeableness)和神經質(neuroticism)。

Cambridge Analytica公司將這種社會心理與數據分析結合起來。他們從Facebook和Twitter收集數據,並從第三方那裡購買一系列其他的數據,比如電視偏好、航空旅行、購物習慣、去教堂的頻率、訂閱的雜誌等等。然後,他們將所有這些信息用於Nix所謂的「行為微觀定位」(behavioral microtargeting),簡單說就是個性化廣告。

Cambridge Analytica使用心理測量學而不是根據人口統計來定製廣告,以選民個人的情感內容為目標。換句話說,就是為了激發人類情感上的偏見而設計廣告。

這種方法成功與否,或者有多成功,取決於對人心理概況的掌握。我們是否能夠根據社交網路上的評論、留言和推文來了解一個人的心理狀況?

答案是肯定的。

Kosinski在他2016年接受採訪時,談到了他的模型的預測能力。「70個「喜歡」就足以超過這個人的朋友對他的理解,150個就能超過他的父母,300個超過伴侶,更多的「喜歡」能讓模型比這個人本身都更了解他自己。」

或許這是Kosinski在王婆賣瓜,但研究早已證實,機器能比人類更加精確地判斷人類的性格特徵,這與社交認識能力無關,一切都在大數據。

2015年發表了PNAS的一項研究表明,計算機模型基於數字足跡對人物性格的判斷,比親密的人(朋友,家人,配偶,同事等)所作的判斷更準確和有效。研究人員表示,「我們的研究結果強調,人的個性可以自動預測,而不涉及人類的社會認知技能。」


利用AI和大數據控制公眾輿論:從假新聞到換臉,初中高三級進階

將機器的這種預測能力與一群bot結合起來,就成了更加強大的宣傳工具。牛津大學互聯網研究所計算宣傳項目(Computational Propaganda project)負責人Samuel Woolley說:「控制一千個殭屍計算機帳戶的一個人,不僅能夠影響他們直接圈子中的人,還可能影響他們操作的網站的演算法。

這些技術可以捕捉到人們在某個特定時刻的想法,並一次又一次地向他們提供服務。不僅如此,活躍在網路中的bot能夠對Twitter和Facebook上的熱門話題做出迅速的反應,生成有針對性的帖子、圖像,甚至YouTube視頻。

隨著大數據和人工智慧的發展,利用相關技術開展社會學研究已經成為一種趨勢。然而,就如上文所說,利用這些技術同時也能影響甚至操控人和社會本身。

牛津大學互聯網研究所計算宣傳研究項目(Computational Propaganda Research Project,COMPROP)就專門針對這種新的現象,調查演算法、自動化和政治的相互作用。研究人員的工作包括分析如何利用社交媒體機器人等工具,通過放大或壓制政治內容、假情報、仇恨言論和垃圾新聞來操縱公眾輿論

項目官網介紹:「我們使用組織社會學,人機交互,溝通,信息科學和政治科學的觀點來解釋和分析收集到的證據。 」

新智元也簡單梳理了AI和大數據在總統競選中的應用。

初級篇:Fake News,製造假新聞在Facebook上傳播

2016年,特朗普當選總統,假新聞可謂助了一臂之力。

在整個競選期間,美國的充斥著大量的假新聞。BuzzFeed在2016年12月做的一項調查顯示,75%的美國人看到過假新聞。以其中一條假新聞為例,「調查希拉里郵件泄露門的FBI特工自殺-FBI Agent Suspected in Hillary Email Leaks Found Dead in Apparent Murder-Suicide (Fake)」這則新聞,有52%的希拉里支持者和85%的特朗普支持者認為是真的。

而假新聞的製造也有規律可循。

紐約時報曾披露,喬治亞一名22歲的計算機專業的學生,發現特朗普的新聞能夠為自己的網站帶來流量,於是他頻繁發布有關讚美特朗普、反希拉里的故事,做法常常只是簡單地剪裁和粘貼,有時會篡改標題,但主要是複製其他地方的材料,就是通常所說的「洗稿」。最終,使網站廣告銷量飆升。

當時,一些分析人士認為,美國假新聞可能跟外國情報機構干預美國政治影響選舉有關。不過《自然》最近發布的研究認為,2012年和2016年美國總統選舉期間,政治類假新聞的數量明顯增多,但假新聞主要由公眾分享,而非「機器人」賬戶自動傳播。公眾之所以更喜歡分享假新聞,是因為它更加聳人聽聞。

儘管如此,在傳播的過程中,Facebook成為重要的渠道,對假新聞的處置力度不夠,這也是馬克·扎克伯格年初放話「整頓」公司的原因。現在,Facebook改變了信息流的呈現方式,優先為用戶推薦好友的新聞。

除了假新聞外,機器人水軍也是為總統選舉造勢的一股力量。

2017年1月17日,Girl 4 Trump USA加入註冊了Twitter賬戶。一個星期之後的1月24日,她突然忙碌起來,每天平均發布1289條推文,其中許多是在支持總統特朗普的內容。當Twitter發現Girl 4 Trump USA是一個機器人的時候,「她」已經發布了34800次推特。

後來,Twitter發現了大量此類的用戶,這就是我們熟悉的「水軍」,在國內社交平台上也經常見到。但Twitter無法阻止其平台上的水軍機器人,而且後者的手段也越來越隱蔽。

中級篇:Fake Video,以假亂真,AI換臉變聲

去年,華盛頓大學的研究人員用神經網路來觀看視頻,並將不同的音頻聲音轉換為基本的嘴形,根據音頻剪輯生成逼真的視頻,讓嘴巴的運動和音頻同步。

不過,這還不是最厲害的。

不久前,Reddit上一名叫deepfakes的用戶,創造一種機器學習演算法,可以允許人們用簡單的視頻和開源代碼製作出一條假的色情視頻,並將原視頻的女主角「換臉」。

後來,deepfakes還開發出一款Fake APP,進一步把技術門檻降低到C端。

特朗普的臉換到希拉里身上

最後,由於技術太逆天以及違反道德,Reddit就把相應的社區封了。

除了製造假視頻,音頻也是AI技術不放過的領域。

聽聽奧巴馬說的這段話。

奧巴馬當然不會說中文,音頻後面的話並非奧巴馬自己說的,而是利用科大訊飛的語音技術合成而來。

高級篇:見微知著,看車能預測政治傾向

無論是假新聞也好,假視頻也好,都是下三濫的手段。真正把人工智慧玩兒的爐火純青的,還是要實打實的能力。

2017年,李飛飛曾領導斯坦福研究人員,將人工智慧的研究成果應用到人口統計學中:他們使用具有視覺和學習能力的演算法分析了Google街景視圖上的數百萬個公開可用的圖像。研究人員說,只要看看街上的汽車,他們就可以利用這些知識來確定某個社區的政治傾向。

具體步驟是:

演算法進行自我訓練,識別谷歌街景中來自200個美國城市的5000多萬份圖像中,自1990年以來生產的每輛汽車的樣式、型號和年份。

然後將有關汽車類型和位置的數據與當前最全面的人口資料庫、美國社區調查和總統選舉投票數據進行比較,以預測種族、教育、收入和選民偏好等人口因素。

最終,李飛飛及團隊發現了汽車、人口統計學和政治勸說之間存在著簡單的線性關係。簡單而言,如果一個社區的轎車數量大於皮卡的數量,那麼該地區有88%的可能性會投票給民主黨。如果皮卡的數量大於轎車,則該選區投票給共和黨的可能性是82%。


人工智慧改變政治生態:研究人員立場最關鍵

現在,這種機器人水軍、AI換臉既成為一種技術現象,也是一種社會現象。

如果僅僅從技術角度來看待用技術進行的宣傳,它就會被那些創造它的人、服務於它的平台以及從中獲利的公司所掌控,也削弱了為改變社會價值和意義的程度,因此,大數據與人工智慧研究對於理解技術宣傳對政治的影響是必要的。

與此同時,研究人員必須對正在使用和分析的數據保持一個關鍵的立場,以確保我們在描述、預測或推薦時進行能夠批評。如果對技術宣傳和政治大數據的研究不涉及到權力,那麼提高社交媒體平台在公共生活中的作用的可能性就會消失。

如果真的是那樣,那就到了終極篇——普京當總統之路了。

1、牛津計算宣傳項目官網:http://comprop.oii.ox.ac.uk/

2、Vox報道:https://www.vox.com/policy-and-politics/2017/10/16/15657512/cambridge-analytica-mccabe-facebook-aleksandr-kogan-trump-russia

3、衛報報道:https://www.theguardian.com/news/2018/mar/18/what-is-cambridge-analytica-firm-at-centre-of-facebook-data-breach

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新智元 的精彩文章:

【巨星隕落】霍金今日去世,但人類對宇宙和AI的探索永無止境
Ian Goodfellow:生成對抗網路 GAN 就是強化學習(超全資料)

TAG:新智元 |