演算法「塑造世界」客觀嗎?
4月初,快手和清華大學宣布成立未來媒體數據聯合研究院,快手CEO表示,如果沒有很好的對社會的認知、對人文的思考,僅靠技術本身會很容易走偏,要用哲學的智慧將演算法、技術力量放大,從而避免表達幸福感的種種障礙。確實,演算法在我們的生活中扮演著越來越重要的角色,關於演算法倫理的討論也日益引起關註:演算法作為信息和用戶之間的「黑色通道」不可見,它是客觀的嗎?會限制思維嗎?
凱文?斯拉文在TED演講中說,演算法「提煉自這個世界,來源於這個世界」,而現在則「開始塑造這個世界」。在演算法「塑造世界」的時代,值得我們思考的是:該如何突破功利主義瓶頸,賦予科技以正向的價值?
演算法沒有價值觀嗎?
演算法最大的優勢是能夠根據用戶的「數字自我」而實現智能化、精準化推薦。從某種意義上說,演算法是人們在信息的汪洋大海中快速找到自己所需的「捷徑」。人們信任演算法,是基於其「客觀性」。谷歌公司堅信「我們的用戶信任我們的客觀性」。谷歌的人—機演算法模式,試圖強調「技術理性」,即「沒有人為因素干預的客觀性」。但是純粹的客觀性真的存在嗎?
演算法的背後是人,演算法作為人類智慧的產物,無疑是需要承載一定價值的。演算法的來源涉及諸多因素,人類的需求、利益和社會環境、現有技術等都會對演算法產生影響,演算法設計者的認知能力、知識水平、設計意圖、價值觀念同樣也會影響演算法。「代碼即法律」(code is law),美國學者勞倫斯?萊斯格認為,「儘管代碼可以實現去管制化,但代碼本身不是固定的,而是可以被商業、政治等非技術力量操控和改變的,人們在網路上的行為認知是受到管制的,只不過這種管制是通過更改代碼而實現的」。
每個公司的演算法不盡相同,而這背後體現的都是他們的目的和價值觀。我們認為自己擁有很大的權利去選擇信息,但實際上所有的選項都是演算法給出的既定選項,演算法在某種程度上決定了我們可以看見什麼、我們以為什麼是真實。在佔領華爾街運動高漲的時期,Facebook並沒有在顯著位置予以推薦,那些將Facebook作為主要信息來源的人很可能因此認為這件事情並沒有那麼重要。社會學家威廉?托馬斯與多蘿西?托馬斯說過:「如果人們把某種情境定義為真實的,這種情境就會造成真實的影響。」
雖然聚合類新聞資訊客戶端本身並不從事內容生產,依靠的是渠道優勢換取媒體和自媒體內容供應,但是,所有的推送內容其實都會承載一定的價值觀。社會科學研究中所謂的「價值無涉」,並不是沒有價值,而是指對不同價值內容予以同樣的尊重,以及給予不符合你的價值觀的信息以修正你價值觀的權利。因此,認為演算法沒有價值觀的觀點本身就值得商榷。
演算法限制我們的思維嗎?
演算法在某種意義上是極簡文化的產物。人們渴望確定性的標準答案,來簡化信息時代因信息洪流而帶來的焦慮和迷茫。亞歷山大?加洛韋在《界面效應》一書中表示,演算法文化有向簡單主義發展的趨勢,這是「無法根據眼前的情況考慮全局的問題,以及無法像解讀歷史那樣解讀現在所導致的必然後果」。
演算法是一種選擇,選擇就意味著捨棄。信息的個性化推薦本質上並不是用戶在主動選擇信息,而是信息的主動呈現。用戶所接觸到的信息要麼是奪人眼球的10萬+,要麼局限在他們感興趣的狹小領域,要麼就是與他們觀點和意見相一致的「溺愛式」信息。人們沉浸在演算法製造的信息繭房裡,失去了對不同領域、不同觀點的接觸機會,精神世界也會因此變得狹窄。在演算法的世界裡,人只是一個個數據點的集合,而不會被當作一個個體來被理解和對待。人性的幽微、需求的多樣、情感的複雜,遠非代碼可以呈現。
演算法預測、影響並進而控制用戶行為。演算法對人思維的限制也可以從自動補全演算法窺見。自動補全演算法最初設計的目的是為了幫助殘疾人提升打字的速度,但是後來谷歌將它納入服務功能,在用戶完成搜索內容輸入之前猜測他們想要搜索的內容,以節省時間。然而自動補全演算法卻給谷歌帶來了官司。
2012年,德國前總統克里斯蒂安?武爾夫的妻子貝蒂娜?武爾夫指控谷歌的自動補全演算法對她進行誹謗和中傷。輸入她的名字,自動補全會出現指向妓女及陪侍行業的搜索項。法院判決,谷歌必須保證自動補全演算法生成的搜索項不含有任何攻擊性或中傷性的內容。武爾夫打贏了官司。谷歌宣稱對這個判決結果極為「失望」,認為判決結果是對谷歌客觀性的公開質疑。公司發言人說:「谷歌不應當對自動補全演算法生成的搜索項負責,因為這些預測不是谷歌自我完成的,而是計算機演算法基於之前的搜索記錄自動完成的。」實際上,對於那些本來並不了解武爾夫的用戶,在看到搜索信息提示以後,確實很可能會被引導到某個方向。演算法不僅可以預測用戶的行為,還會對用戶的行為產生影響並實現控制。
演算法技術使用戶很多信息行為並非以需求為導向。演算法將特定的選項放在用戶面前,導致用戶只能在所提供的選項中做出選擇。人們在信息獲取過程中的主動性被極大削弱。在很大程度上,用戶被演算法所提供的信息「餵養」,這些信息並不都是用戶真正的需求。有時候,信息「偶遇」也成了預謀已久的信息「碰瓷」。
演算法時代的 「自救」
對演算法的質疑從演算法誕生起就一直存在,這種質疑其實也反映了人類的科學理性。在對演算法的設計提出繼續完善的同時,我們當然要學會「自救」,也就是面對演算法要做到自我保護。
對演算法可能存在限制有所覺察。對於用戶而言,演算法最大的問題在於不透明。演算法的複雜性即便是技術人員也未必能搞清,更不用說普通的「技術小白」。雖然我們看到的只是演算法給出的結果,而對其中的設計理念、運行邏輯都一無所知,但是,我們應該知道演算法其實並不是完全客觀的存在,它有可能被歪曲並存有偏見。我們要始終對演算法可能存在限制有所覺察,知曉那些不符合我們價值觀的內容很可能已經被屏蔽在視野之外。
保持提問的良好習慣,而不要指望答案唾手可得。在所有問題都可以輕鬆解決的世界裡,人們需要一種更加激進的思維模式。提問時,試著去了解演算法正在發揮哪些作用,它們最初設計的目的是什麼,以及所謂的「相關性」和「新聞價值」究竟是對誰而言。現在已經有人開始從事演算法數據干擾的研究,以便在演算法試圖了解他們、並將他們分類時採取干擾或規避措施。有人平時買報紙,用傳統網頁方式瀏覽新聞,盡量不依靠智能搜索,為的就是用自己的邏輯對抗演算法可能帶來的信息窄化,不被演算法限制。
揭開演算法「黑箱」,更要能夠駕馭它。縱觀歷史的發展,每每有新技術降臨,人們最終都很難不參與其中。我們當然不能放棄演算法,儘管目前來看演算法應用還會帶來很多問題。我們需要做的,不僅是要去了解演算法以及它可能帶給我們的影響和改變,更是能夠駕馭它,用智慧趨利避害,讓演算法更加科學理性。(人民日報中央廚房?煮酒話媒工作室 李康樂)
TAG:全國黨媒信息公共平台 |