精準推薦技術是「照妖鏡」,反映的是真實的你
GIF
去油膩管理心經,你最好的「充電」夥伴
你必不可少的管理洗滌劑
在文章開始之前,請你先花一點時間思考,愛貓一族是否會「公正」地把自己的時間花在瀏覽狗狗身上?
近年來,谷歌、Facebook等大型數字平台廣告系統的演算法設計引起了人們的關注。特別是在爆出Facebook政治廣告風波後,有關分析人士指出,「社交媒體使用演算法形成的精準化推薦直接導致了政治偏見的形成」。然而,精準推薦究竟是否應該背上人類「偏見」的鍋呢?
根據心理學家戈登·奧爾波特(Gordon Allport)的說法,偏見的出現部分是因為人類的正常思維。
「
奧爾波特進一步解釋說:「人類的頭腦必須藉助於類別來思考。一旦形成,類別是正常預判的基礎,我們不可能避免這個過程,有秩序的生活取決於它。」
」
這也就不難理解為什麼我們喜歡給不同的人和事物貼上我們易於接受的標籤。從這個角度來看,偏見的形成與人類大腦運作和解決問題的機理有關,甚至是不可避免的。另一方面,偏見的形成還深受成長環境和成長經歷的影響。比如母親是一個典型的家庭主婦,承擔了所有的家務,那麼她的言傳身教在不自知的過程中影響到孩子的認知:女性總是應該承擔家務的。
因此不難發現,互聯網下的用戶在做出行為選擇之前已經有了自己的「偏見」。2016年11月美國總統選舉時期,俄羅斯通過Facebook等平台發布假新聞支持特朗普,共和黨的擁護者不斷接收到類似信息的推送。這一系列動作背後的邏輯在於,支持共和黨的人會本來就更傾向於點擊或轉發特朗普相關的新聞,後台演算法因此記住這些用戶的偏好,進而主動推送同類消息。此外在這個過程中,驗證性偏見也起到了很大的作用。換句話說,人們總是喜歡順著自己的思路去尋找那些能證明自己的理論或判斷的信息,而不是反駁這些理論或信息。因此,對於精準推薦的新聞,共和黨擁護者會有很高的概率去點擊,以此來進一步證明「自己的選擇是明智的」。退一步說,如果社交媒體不進行精準推薦,用戶自己還是會去尋找和關注想要了解的信息,只不過科技的發展使信息的獲取更加方便和快捷。
(圖片來自網路)
如果非要找精準推薦本身存在什麼問題的話,其背後的演算法在一定程度上可能自帶偏見。
在一次關於谷歌AdSense廣告的研究中,哈佛教授 Latanya Sweeney在搜索了白人典型人名(如Geoffrey, Jill, Emma)和黑人典型人名(如DeShawn, Darnell, Jermaine),發現含有「逮捕(arrest)」這個字眼的詞語廣告時,出現的黑人人名超過80%,但出現的白人人名只有不到30%。
原因主要在於,編寫廣告推薦代碼的程序員很有可能主要是白人群體,哪怕即使不是白人群體,長期的社會生活已經在潛移默化中給人留下「黑人犯罪率高」的偏見,而這又被帶入廣告中。
類似的問題還有很多,例如,谷歌更偏向於給女性推送低薪廣告;亞馬遜的當日送達服務繞過了黑人街區;還有幾類數碼相機軟體都在識別非白人用戶的面孔方面感到困難。其中最鮮明的例子是 COMPAS 演算法,該演算法被多個州政府的執法機構用於評估被告人再犯罪的風險。
毫無疑問,演算法本身的偏見是可怕的。但如果忽略演算法對於新型技術和高級體驗的作用,只看到其中可能存在的偏見未免有點因噎廢食的意思。關鍵的問題在於,如何儘可能減少演算法背後的偏見。很重要的一點是,公司和程序員應該對其演算法的透明性和可解釋性作出承諾。據悉,2018年5月,歐盟將開始實施《全面數據保護條例》,旨在賦予公民任何自動決策的「解釋權」,並有權對這些決定提出質疑。對違規行為的罰款將增加到年收入的4%,這意味著像谷歌這樣的巨頭將可能支付數十億美元。
在互聯網時代,大量的信息充斥著我們的生活,倘若沒有精準推薦,可以想像人類在面對搜尋自己感興趣或需要的信息時,是多麼抓狂。那些大肆宣揚「精準推薦會帶來偏見」的人,實際上已經把自身偏見的鍋扣到了「精準推薦」的頭上,而他們當中十有八九已經陷入偏見的漩渦不可自拔了。
TAG:去油膩管理心經 |