搜索引擎是否在操縱我們的思維?
幾個月前,矽谷一位資深投資者展開了一項實驗:他整理了Facebook和谷歌分別持有的有關他的所有數據,然後把這些資料進行對比。
結論讓他震驚,谷歌持有的信息是Facebook的好幾倍。「結果是驚人的,」我們在舊金山共進早餐時他告訴我,「為什麼沒有人討論這個問題?」
這是一個有趣的問題,特別是在你每天多次使用谷歌服務的情況下,就像我這樣。一個答案可能是谷歌高管擅長建設政治支持網路。另一個答案是谷歌緊握它自己收集的這些數據,然後利用這些數據創造針對性的搜索和廣告服務,為用戶定製。而Facebook讓第三方開發人員獲取其數據,這是引發眾怒的原因。
這種區別可能會讓谷歌聽上去更友善,但這是否意味著我們可以放鬆了?位於加州的美國行為研究和科學技術研究所的心理學家羅伯特愛潑斯坦(RobertEpstein)不這麼認為。最近幾年,他與心理學家同事和數據科學家就谷歌的「搜索」或「自動補全」功能進行了大量研究。這讓他相信,搜索引擎能夠以非常強有力且大多不被注意的方式影響我們的思維。
搜索引擎有能力從人們在搜索框鍵入的第一個字元開始操縱人們的搜索。搜索引擎公司操縱選舉的一個簡單但有力的方法是,為其支持的候選人減少負面搜索建議,同時給出對方候選人的一個或多個負面搜索建議。
愛潑斯坦的團隊邀請661名美國人在一次澳大利亞選舉中的兩位候選人中選擇一位。由於參與者不太了解澳大利亞政治,他們被指導使用一個谷歌風格的搜索引擎搜索這兩名候選人,在鍵入文字時,該搜索引擎會提供通常的自動補全建議。
然而,研究人員還改變了出現在候選人名字下方的搜索建議,包括一系列正面和負面辭彙。結果是明顯的。當參與者後來被問到他們的投票偏好時,他們的回答顯示,改變自動補全建議中正面和負面建議的比例能夠讓猶豫不決投票者的偏好改變近80%,儘管參與者看上去可以自由搜索他們想要的任何資料。另一項研究發現,當參與者只得到4種自動補全建議時,他們很容易被操縱;當有10種建議供選擇時,他們就不容易被操縱了。
這些結果並不證明谷歌(或者必應(Bing)或雅虎(Yahoo)等任何其他搜索引擎公司)利用這種能力操縱了用戶。但愛潑斯坦的論文強調了一些他認為奇怪的模式。他的團隊發現,如果你在谷歌搜索引擎鍵入谷歌競爭者的名字,再鍵入「is」時,「Yahoois dead」(雅虎已死)或者「Bing istrash」(必應是垃圾)等詞句可能會出現在自動補全框中。據愛潑斯坦稱,當時雅虎或必應自己的搜索引擎沒有出現同樣的情況。
另一種引人注目的模式出現在2016年8月。當時當在谷歌搜索引擎中鍵入「Hillary Clintonis」時,自動補全建議提供的詞句包括「Hillary Clinton is winning」(希拉里柯林頓將獲勝);在雅虎或必應,自動補全建議顯示的是「Hillary Clinton is a liar」(希拉里柯林頓是說謊者)和「Hillary Clinton is a criminal」(希拉里 柯林頓是罪犯)。
谷歌高管表示,這些不同的自動建議模式之所以出現,是因為該公司的一項政策是移除冒犯性自動預測。公司高管丹尼沙利文(DannySullivan)在上月的一篇博文中寫道:「谷歌移除了那些違反我們的自動補全政策的預測,這些政策禁止……在種族、宗教或其他人口統計特徵的基礎上對群體和個人進行惡意預測。」
他們還堅決否認曾試圖利用自動補全工具操縱用戶。他們表示,愛潑斯坦的研究基於很小的樣本規模,使用的是谷歌風格的搜索引擎,而非谷歌自己的數據。在2015年有關愛潑斯坦部分研究的罕見官方評論中,高管們表示:「谷歌從未就任何話題(包括選舉)對搜索結果重新排序以操縱用戶情緒。」
撇開其他不談,這項研究應讓我們所有人思考我們使用「自動補全」功能的方式。自動預測做的越好,用戶懶惰地被吸入數字「迴音室」的潛在風險就越高。愛潑斯坦認為,有一種簡單的解決方案。他認為,搜索引擎應在它們的網站上就「迴音室」和操縱的危險附上簡單的「健康警告」,以降低可能的風險。
不管你是否接受愛潑斯坦的研究,這似乎是個好主意。但不要指望這會很快實現,除非更多消費者和監管者像那位在矽谷與我共進早餐的人那麼做:即查看所有大型科技公司持有的關於我們的數據,從Facebook開始,但不止於Facebook。(英國《金融時報》專欄作家吉蓮 邰蒂,譯者/梁艷裳)
※評王蒙《春山讀書圖》並和其上題詩
※中外腕錶大咖齊關注,8848手機颳起科技奢侈品旋風
TAG:光明網 |