當前位置:
首頁 > 最新 > 數字時代,你被演算法「綁架」了嗎?

數字時代,你被演算法「綁架」了嗎?

發現思想力 成就影響力

臉書(Facebook)五千萬用戶數據泄露事件「激起千層浪」。臉書用戶發起了「刪除臉書」(#deletefacebook)活動,特斯拉創始人埃隆·馬斯克也為此在臉書上關閉了特斯拉和SpaceX兩家公司的主頁。

可能你沒有臉書賬號,但下面這些情況你是否次曾相識?

搜索過的商品出現在淘寶首頁的「猜你喜歡」,點贊過一次萌寵視頻就會收到來自抖音的更多推送,點擊頭條明星八卦會刷到更多娛樂新聞。

你喜歡什麼,首頁就拚命給你推送什麼,似乎通過一塊屏幕就能傳達出你想要的世界的模樣。而帶給你這樣「美妙」感覺的,正是更懂你的演算法。

演算法如何了解你的全部?

演算法比你自己更了解你自己。

今天的網路世界裡,構成一個網民個體的,不是身體髮膚,而是數據。

雖然數字化的個體只是一串串0和1的存儲字元,但用戶信息在大數據演算法的支持下顯露無遺。僅是購物數據一項,就能提供足夠豐富的個人信息,比如真實姓名、聯繫方式和購物偏好等。在你的聊天記錄、通話時長、地理位置和社交行為等信息提供的支持下,數據擁有者足以推斷出你的生活習慣,甚至價值觀。

在大數據的邏輯里,一切都靠數據說話。通過瀏覽網頁、使用App,你「主動獻上」自己的數據,你提供的數據越多,平台對你的了解就越完整。整合後的數據較為精準、詳細,之後通過各種建模分析,足夠刻畫一個「數字化的你」,甚至比你自己更了解你自己。

而驅動數據並支撐這類精準「用戶畫像」的核心是演算法。

演算法是系統計算的具體步驟,常用於計算、數據處理和自動推理。演算法不需要後台人工控制就可以根據獲取的一個或多個預設變數值,自動推算出可能的結果並推送給用戶。

然而對於用戶來說,目前大部分演算法只能看到數據輸入過程和輸出結果,中間不透明的過程只有少數「局內人」掌握。這個中間過程就是馬里蘭大學教授弗蘭克·帕斯奎爾(Frank Pasquale)提出的「演算法黑箱(Black Box)」。「黑箱」不僅意味著演算法有我們不能觀察的「隱層」,還意味著我們也無法理解機器和人工智慧提供演算法的邏輯。

臉書用戶數據泄漏事件恰好反映出了一個痛點:普通人對於數據隱私的不安全感大部分來自對「演算法黑箱」的各種「無從得知」。用戶們不知道自己的哪些數據被記錄,在何時被調用,不知道演算法如何設計和整合數據,不知道數據被誰讀取和使用,又被傳輸給了誰,用作什麼目的。

正如帕斯奎爾教授在《黑箱社會》一書中說,「在大數據時代,我們只是信息的產生者,卻不知道我們的信息將被用於何處,又會產生什麼樣的後果。」

演算法怎樣干擾你的決策?

似乎控制了數據和演算法,就控制了人的思想。

演算法專家凱文·斯拉文在TED演講中說,「演算法提煉自這個世界,來源於這個世界,而現在則開始塑造這個世界。」

此次臉書數據泄露事件的爆料者懷利(Christopher Wylie)透露,非法獲取這5000萬份數據的政治諮詢公司劍橋分析(Cambridge Analytica),通過對臉書用戶數據建立模型,分析政治偏好和預測投票選擇。藉助Facebook的廣告投放系統,這家公司可以對每個用戶定製有高度針對性的新聞推送和廣告,潛移默化地干擾人們對英國「脫歐」公投和美國2016年總統大選等事件的看法。

那麼他們具體怎樣「操盤」選票?劍橋分析有三大寶:心理學模型、大數據分析和定向廣告。

在英國電視四台(News 4)的一段暗訪視頻中,「劍橋分析」市場總監特恩布爾坦言,劍橋分析會根據用戶在社交網路上的數據,定向傳達信息。比如,通過心理學模型演算法篩選出的嚴謹型的人,會在推薦內容中增加展示惡性搶劫案的畫面。針對搖擺州猶豫不決的中間選民,則推送有針對性的新聞乃至假新聞。強調形勢的嚴峻性,從而潛移默化地影響和操控他們的心理。而針對容易被煽動起來的「少數裔」,就推送種族歧視言論。

「總之就是投其所好,實施高度精準的個性定製」,特恩布爾說。然而用戶卻對互聯網公司的「潤物細無聲」毫不知情,人們的行為方式、看法甚至思想觀念,都可以通過數據的過濾及呈現,潛移默化地被控制和影響。隱性洗腦在大數據時代已經成為現實,似乎控制了數據和演算法,就控制了人的思想。

因此,我們不難發現,臉書泄露事件反映出一個基本事實:演算法本身並不中立,演算法由人構想、設計、使用,在文化、政治、價值認同等方面很可能出現偏差。因此演算法是可操控的,完全有可能被用作「隱形」的惡意武器,成為操控決策的工具。

如何不被演算法「綁架」?

今天的網路世界裡,構成一個網民個體的,不是身體髮膚,而是數據。

雖然扎克伯格在國會「過堂」時向用戶誠懇道歉,表示臉書未來會加強對用戶數據隱私的保護,但不可否認的是,包括臉書、谷歌在內的大多數互聯網企業越來越依賴這種「黑箱」策略,並將「黑箱演算法」看作是讓其處於行業競爭優勢的秘密武器,沒有哪個企業願意主動公開解釋自己的演算法過程。正如《經濟學人》所說:「數據是新時代的石油」,掌握著油田的開採技術的「大佬」們自然不會將自己的秘密公開。

針對「演算法黑箱」帶來的風險,歐盟將於今年5月25日生效《統一數據保護條例》(GDRR),這一法案中要求科技公司解釋其所有演算法的輸出原理,並且用戶有權在對演算法決策不滿意時選擇退出。比如公眾有權利要求各種系統、應用程序停止記錄和使用自己的行為數據。

同時,這項法案要求用戶行為數據被採集之後,也不能永久保留,其時限最多為一年半。同時,用戶可以要求相關企業將其數據徹底刪除。這意味著數字化時代下,我們擁有了「被遺忘權」,可以自行選擇讓自己從互聯網上「消失」,不再被演算法綁架。

《未來簡史》曾預言,未來的時代將會進入演算法社會。在演算法驅動下,各類App和網站讓我們的生活更加便利,但同時演算法「黑箱」也讓用戶和科技公司之間的不對稱性更加隱蔽。

而解決演算法黑箱帶來的風險,更需要各國政府從法律層面加強監管,避免相關演算法被惡意設計或使用。在這一點上,歐盟出台的《統一數據保護條例》率先邁出一步,在演算法方面要求企業把選擇權還給用戶,這給了自然人數據主權更多的尊重和保護。只有把演算法關進籠子,才能保證用戶做出忠於自己的判斷,減少對未來科技的焦慮。

而擁有演算法技術的科技企業,也要給演算法賦予正向價值觀,用企業責任彌補信息不對稱,增加用戶對未來科技的信心。

策劃:劉娟

作者:王俊景 倪可馨(實習)

編輯:馬宇聰

校對:周佳苗

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新華網思客 的精彩文章:

基因檢測是科學「算命」?你想多了
張燕生:擴大開放是進入新領域新層次的開放

TAG:新華網思客 |