當前位置:
首頁 > 最新 > 今日頭條如何整改?演算法透明、精確、有反饋,平台才可能是平的

今日頭條如何整改?演算法透明、精確、有反饋,平台才可能是平的

導讀:

「你們文化人給了我們太多深刻的命題。」一年多前,在面對《財經》記者關於演算法與人性的質問時,張一鳴回答地天真爛漫。問題是無法逃避的,近段時間,這位年輕的CEO正面臨著一系列的產品整改,面臨著主管部門和文化人們給予的更深刻的拷問:平台、媒體、科技、價值觀之間的關係。請看浙江理工大學青年學子黃佶瀅的觀察與分析。

平台是平的嗎?

今日頭條已經儼然成為這個時代最強勢的媒體平台之一,每天有7000多萬人花76分鐘在今日頭條上,將這個平台作為自己信息獲取的主要來源。然而,「平台」這個詞天生具有一種欺騙性質的誘惑性,正像研究員Tarleton Gillespie指出的那樣,這個比喻正在嚴重誤導著人們。用戶常認為平台真的是「平」的,平台是平等地開放給所有人的,每個人都能從中平等地獲取信息。實際上,我們每個人見到的信息都被賦予了不同的權重,每條信息都帶著其特有的演算法和目的蹦跳到我們眼前,總有一些信息你總能看到,而另一些則永遠也看不到。今日頭條根據你的喜好和習慣來呈現信息,微博也早已將信息流從時間順序改為演算法排序,讓那些兩天前的「重要信息」躍到3分鐘前的好友動態之上。歸根結底,公司的目標都是相同的,讓這些信息更精準地變現。

同時,平台總讓人覺得它是不用承擔責任的,就像車站的站台,它只是一個承載的工具,至於承載的內容是什麼則與工具無關。然而,如今日頭條的科技公司們早已不是一個簡單的、中立的、可以免責的工具。人們依靠多樣的信息來充實自己的頭腦,就如同用不同的食物填飽自己的胃,不同的信息搭配構建了不同的媒體食譜,長久接觸下去會直接塑造人的很多方面,包括怎樣看到世界,塑造怎樣的價值觀,怎樣與公共空間打交道。

當一個演算法影響的是億萬人每天能接觸到什麼,甚至能改變他們的認知形態與交流形態時,其背後的公司決策者、設計演算法的工程師,應該對它保持一顆敬畏之心。

演算法是中立的嗎?

演算法中的媒體比較像《綠野仙蹤》中的世界:我們看不到參與其中的人。技術看起來是我們與朋友、與信息間僅有的媒介,它潛藏在平台之下,我們並不會去思考技術如何干涉我們看到的東西。採訪中,張一鳴曾表示「我們不是個媒體公司,是因為我們不創造內容,我們不發表觀點。我們是一家科技公司,是為了解決問題(信息分發問題)而創辦的,充分認識問題比如何解決問題更重要。你認識到一個問題、認識到這個問題的規模和意義,這本身就是一半的答案。」看上去,他真的相信技術是中立的,是沒有價值觀的。

然而深入一想,就會立刻發現問題:用戶看到的世界並不是張一鳴描述的完整的世界,認識到的是怎樣的問題、具有怎樣的規模並不受自己控制,而是依靠演算法。「提高分發效率,滿足用戶需求」這種理工科思維,實際上規避了很多硬核問題,比如,道德、價值觀。在技術處理中,越具體的、能轉化為數字的越容易被計算機所運算,符合這一條件的演算法模型將會受到很好的運用。比如棒球比賽的演算法則被公認為公平的、正向循環的演算法。它具有良好演算法的三大特性:透明、精確、有反饋。首先,因為比賽是公開的,人人都能獲取運動員相關的數據——採用了什麼樣的動作和技巧,獲得了多少分;其次,棒球的統計相當精確,數據直接與運動員的表現相聯,並且與預測高度相關;最後,棒球的演算法有明顯的反饋系統,設計者可以根據比賽的結果與演算法的預測相對比,了解哪裡出錯了,並且由於比賽不斷進行,得到的反饋也不斷更新,推動演算法根據實際情況進行改變。

反觀今日頭條的演算法,第一,演算法是不透明的,用戶並不知道平台是通過他們怎樣的行為來確定推送信息。

第二,今日頭條不靠編輯,依靠演算法來控制信息的產出。你也許會說,演算法不會讓事情變得更壞,比如曾經的編輯也會根據自己的喜好偏見來篩選題材,控制人們看到的東西,但人類決策有一個重大的好處,它是會演變的。一個編輯隨著年齡的增加,閱歷的增長,社會在不斷地帶給他反饋,他由此不斷地調整所認同的價值觀。相比之下,演算法則會一直不變,除非工程師介入系統。演算法將某種歷史狀態寫進程式里,它們不創造未來。此外,在「個人喜好」、「價值觀」中,許多人類才有的概念是無法精確量化的,演算法是人設計的,而建模者極少願意多費一些力氣去納入這些價值判斷,這似乎太困難了,他們關注某些行為,但找不到直接相關的數據,於是用另一些數據代替。比如設計者可能根據一個人的地理位置和文化水平判斷他是否足夠富裕來推送借貸廣告,而這實際上是涉嫌歧視的。

第三,今日頭條的演算法缺乏有力的反饋系統,你若不慎點擊了那條借貸廣告,接下來的幾天就會有大量的借貸信息向你湧來,用戶卻沒有辦法點擊「不需要」來進行反饋。這還屬於用戶「意識到」自己不需要的情況,更多的時候,用戶被演算法不知不覺地禁錮在了一個「過濾氣泡」中——演算法根據我們的個人信息和此前的閱讀行為,社交媒體、搜索引擎或閱讀類app會為我們過濾掉和我們意見不一致的信息,讓人們活在一個個泡泡裡面。這些引人入勝的技術發生在封閉的程式里和嚴密的防火牆內,將我們每個人安置在各自隱蔽的、愜意的角落。

演算法一定會讓我們在過濾氣泡中越走越窄嗎?

答案是否定的。我們熟悉的根據「相似性」推薦信息只是演算法的一個方面,《Recommender System Handbook》一書中列舉了多項推薦系統衡量指標,比如用戶喜好、覆蓋面、 信任、新鮮感、驚喜度、多樣性等,最終呈現給用戶的結果是演算法在優化、權重這些指標的複雜結果。如果通過一定的建模手段,把多樣性、新鮮度等指標放入模型中進行優化,最終看到的推送內容就有可能走出過濾氣泡。

美國國家公共廣播(NPR)開發的名為「NPR One」的app,就致力於打破這一困境。NPR One將信息分為兩類,重要的新聞不通過演算法選擇,而通過資深的編輯進行強有力的人工干預;重大新聞之外的「談資」類信息則由演算法推薦,值得一提的是,app每過一段時間就會向讀者發出詢問:「你真敢興趣這些內容嗎?」「看看別的好不好?」這種簡單的操作給予了用戶反饋的機會,讓演算法不斷地納入新的數據進行調整。此外,當你聽取了事件的一方觀點時,app會主動提醒你聽取另一方觀點;當時間發生後續反轉時,演算法會選出看過前期報道的人向他們遞推後續新聞。

另一個值得學習的案例是由MIT媒體實驗室發布的gobo,這個app是個第三方軟體,通過讓用戶根據自己的想法調整參數來更改Twitter和Facebook等社交媒體的演算法,讓自主權回到用戶手中,在app中用戶能夠自行決定信息流當中嚴肅新聞的比例、性別的比例和貼文的流行程度等六個參數,每一個參數的工作原理都會被明確告知。

建立過濾氣泡的是演算法,而打破泡泡的也正是演算法本身,說到底如何制定演算法取決於公司的價值觀,取決於社會責任與商業利益的博弈,如今的互聯網公司已經不能將社會責任與商業利益割離開來,兩者已經緊密地結合在了一起,每一條信息的分發都展示著商業利益和社會責任的不同權重,滿足商業利益的基礎上盡到社會責任是極不負責任的。

美聯社產品經理Ken Romano表示:技術應該支持對新聞內容的個性化體驗,但不應該成為一切的決定者。平台對於演算法的態度也應該如此,演算法應該是我們的工具,而非我們是主人。我們的平台應該在設計中更精準,注重用戶信息的安全性,同時像棒球演算法那樣更加透明,將儘可能多的數據原理提供給用戶;更加精準,不用演算法對價值觀進行一刀切判斷,在重大問題以及無法量化的問題上,用人與經驗進行調節;更要建立起反饋機制,使用戶不處於被動,使演算法成為一個不斷更新調整的良性系統。在社會責任與商業利益的博弈中,法規也需要對責任做出明確的規定,才能打造一個公平、清朗的平台社會,更好地推動公平與民主。

來源:浙江理工大學 黃佶瀅:《今日頭條整改:演算法透明、精確、有反饋,平台才可能是平的》

文編:李賽可

美編:吳夢婷

責編:鄭宇


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 看傳媒 的精彩文章:

浙江省網路作協副主席夏烈:打造網路文學的一個重鎮
今年全國兩會上,有哪些關於新聞出版廣播影視行業的提案?

TAG:看傳媒 |