ProPublica 為什麼是 Facebook、Amazon等科技巨頭最怕的新聞媒體?
ProPublica 被 Fast Company 形容為科技巨頭最怕的「看門狗」(新聞術語,指新聞媒體替公眾監督政府、企業,調查社會問題)。
ProPublica 是我非常喜歡的一個媒體。簡單形容其模式,有兩個關鍵詞,一是「數據新聞」,二是「公共媒體」。數據新聞指的是生產方式,ProPublica 一直是數據新聞界的典範,除了講好故事,還以數據、圖表、街景圖等多元化的方式生產和呈現新聞。公共媒體則指盈利模式,ProPublica 基本不靠廣告盈利,收入來自基金和眾籌,並且在逐漸減少單個基金的佔比。
接下來我們要看到的這篇報道,編譯自 Fast Company,介紹了在科技時代,當真相掩藏在 Facebook、Amazon 等科技巨頭的「黑箱」中,ProPublica 如何用數據和演算法行使監管職責。如何告訴大眾,你的生活究竟如何被科技巨頭影響。
作者 | KATHARINE SCHWAB
編譯 | 痕痕
Facebook 像個政治戰場,俄羅斯的特工試圖影響選舉,假新聞泛濫,政治候選人利用廣告來觸達不確定的選民。我們不知道 Facebook 隱藏的黑箱演算法中發生了什麼,它控制著整個News Feed。政客們遵守規則嗎?我們能信任 Facebook 去監管他們嗎?我們真的有什麼選擇嗎?
要想「對付」 Facebook 的科技巨頭,也許只能以其人之道還其人之身——用類似的技術去刺探黑匣子里在發生什麼,收集數據,不斷驗證假設,就像早期天文學家探測太陽系一樣。
這就是 ProPublica 的記者 Julia Angwin 團隊採用的策略。Julia Angwin 是普利策獲獎者,她的團隊里包括程序員、記者、研究員。他們專門調查影響人們生活的演算法,包括 Facebook 的新聞源,Amazon 的定價模型,軟體如何確定汽車保險費,甚至軟體如何決定犯人被關押的時間。甚。為了研究這些演算法,他們使用機器學習和聊天機器人等新技術。
Angwin 表示,他們得不斷地建立新演算法,這是個資源密集型、非常具有挑戰性的任務,很少有普通媒體願意投入金錢和人力去做。但這個任務顯然很重要,Angwin 認為他們需要為立法者提供科技巨頭在進行不法行為的具體證據。
ProPublica 在最初沒有使用技術作為調查工具。團隊在 2016 發出了一篇關於犯罪風險評分的轟動性報道。報道顯示這些評分由一種演算法產生,用來給法官決定保釋和入獄判決,而評分充斥著系統性的種族主義:黑人男子通常被認為比具有類似犯罪歷史的白人更高的風險。不過根據信息自由法的要求,這篇報道是以傳統調查報道的方式呈現的。
Angwin 團隊第一次在調查中搭建演算法,是針對 Amazon 的定價體系。ProPublica 的程序員測試了很多假設—— Amazon 的東西在移動端比 PC 端更貴,Prime 會員比非會員看到的價格更高等等。最終他們發現 Amazon 給用戶優先推薦的是自有品牌產品,而不是性價比最高的產品。
不可避免的,記者們把目光投向了 Facebook,更確切的說,是用戶們最常接觸的 News Feed。
但破解 News Feed 並非易事,除了 Facebook 沒人做過這個,和任何普通人一樣,Angwin 團隊對 Facebook 如何掌握用戶數據,以什麼演算法決定 News Feed 給用戶看什麼一無所知,只能另尋辦法。
他們的重大突破源於得到了一份泄密文件,講述 Facebook 的秘密審查制度。相關報道發出後,讀者告訴 Angwin 他們有過 Facebook 不遵守(自己設立的)規則的經歷。讀者提供的素材讓 ProPublica 能進一步調查,而且為了獲取更多證據,他們建了自己的 Facebook Messenger 聊天機器人,號召更多讀者來提供證據。
使用聊天機器人,顯然是為了更廣泛地收集證據。團隊需要獲取、評估讀者提供的例子,是否能證明 Facebook 違反了自己設立的審查制度。
團隊里的程序員 Varner 精心設計了機器人的問題,他認為在 Facebook 這個大家討論的平台上接收這些信息具有重要的意義。而對於已經不使用 Facebook 的人群,他們也提供了獨立調查表格。
在收集到的幾千份回復中,可用的約有 900 個,團隊最終選出了 49 個典型案例,來證明 Facebook 不遵循自己的規則。作為此報道的回應,Facebook 把「年齡」作為受保護群體的條件,加入了審查制度,這意味著「黑人小孩」將成為保護群體,不會再看到仇恨言論(Hate Speech)。然而,由於這個制度只針對群體,而不針對個人,因此仍有許多人會看到仇恨言論
Angwin 認為,雖然 Facebook 聲稱他們通過抽樣調查來檢查 News Feed 里的新聞是否符合審查制度,但他們的數據設置方式都是秘密的,凌駕於司法之外。「他們可以隨便怎麼說,說他們在執行審查制度,但我們需要有能力搞清楚他們究竟怎麼做。」
接著,ProPublica 開始調查 Facebook 上的廣告,這次他們採用的辦法是自己購買廣告。他們發現在 2016 年,Facebook 允許廣告商排除特定種族、年齡的受眾,比如允許房地產廣告商專門投放給「猶太人仇恨者」,或者防止老年人看到招聘廣告。
在 ProPublica 爆炸性的報道後,Facebook 稱他們建立了一個系統拒絕歧視性廣告(雖然 Angwin 測試了一遍,發現平台仍允許房產廣告向特定種族投放)。Facebook 取消了像「Jew Haters」這樣的標籤,並承諾將更好地監控廣告目標類別。但 Facebook 否認只向某一年齡段的人發招聘廣告是違法的,訴訟已經開始。
「這麼多的個人數據被用來決定看什麼廣告,聽起來非常無所謂,直到你意識到你看不到招聘廣告是因為你太老了。」 Angwin 說。
該團隊目前在操作的項目是,調查政治廣告在 Facebook 上是如何運作的。和上次主動買廣告不同,這次他們建了個瀏覽器插件,挑選你看到的 News Feed 廣告,並用機器演算法識別這個是否為政治廣告。
本周他們發表了一些關於政治廣告的報道,稱不少美國政治廣告沒有包含強制性的「我贊同這個信息」的免責聲明,而這個聲明通常在電視、印刷廣告中都有。
這個政治廣告收集插件符合最嚴格的隱私標準,也在德國、瑞士、義大利、丹麥等 8 個國家亮相。ProPublica 為每個國家建立了自定義演算法,可以識別這些國家政治廣告的獨特風格。
Angwin 認為,把假設變成故事不是最重要的,更重要的是要有具體的證據,要讓立法者能採取行動。「有很多人在寫:技術平台,他們的權力太大了!但這還不夠具體,決策者也不能對此採取任何行動。所以我們要把更多數據放到桌子上來。」
她稱這些數據為「小數據」,和 Facebook、Google、Amazon 等公司的數據比起來,這些數據的確不值一提。但這已經比一般記者所能獲得的數據更多了。「每一家科技公司都應該得到同等力度的審查,非科技公司也一樣,因為技術在入侵一切。」
※挺過2017年手機市場攻堅戰,2018年vivo的作戰計劃定了
※新科技快速指南系列之「區塊鏈」:歷史、現在與未來
TAG:36氪 |