當前位置:
首頁 > 最新 > 控制數據就能控制思想,facebook泄密告訴你的真相

控制數據就能控制思想,facebook泄密告訴你的真相

演算法的複雜性、不透明性導致了一個「黑箱社會」的形成。在這個「黑箱社會」里,真相只有被「局內人」所掌握,公眾對演算法理解得越少,就越難以接觸到事實的真相。

冰川思想庫特約撰稿 | 鄭偉彬

在經歷5天的數據醜聞之後,美國社交網路公司facebook CEO 扎克伯格終於在3月21日(美國當地時間)打破沉默,首次發聲,為5000萬用戶數據泄露道歉。

在此數日前,英美媒體披露,數據分析企業劍橋分析(Cambridge Analytica)未經授權,獲取facebook上多達5000萬用戶的信息,並將之用於預測和影響2016年美國總統大選的選民投票。這一事件成為facebook創建14年以來最大的用戶數據泄露事件之一。

Facebook創始人兼CEO馬克·扎克伯格發布聲明。

在聲明中,扎克伯格承認了平台曾經犯下的「錯誤」,並且提出為了阻止用戶信息被利用,接下來將做出改善措施,以重新獲得用戶的信任。


可操控的數據

對於facebook而言,用戶的信任至關重要,因為這是facebook的商業運作邏輯,是它的生存根本。

有人曾計算得出,facebook上的每個用戶能夠為其帶來2.76美元的收入。而這些收入的實現,則是通過對用戶特徵的準確分析,進而實現精準的廣告投放。

因此,我們不難發現,無論是劍橋分析公司通過大數據分析影響2016年美國大選,或是facebook通過用戶研究實現精準的廣告投放,都說明了一個基本事實,即大數據提可操控的,人的思想、意識和行為方式,都可以通過數據的過濾及呈現,進行控制與干擾。

通常,大數據分析會被視為幫助人們更好作出決策的工具,尤其是在商業上,基於大數據和人工智慧技術產生的智能投顧、智能決策等產品不斷湧現,但對於大數據可被操控這一現實,卻似乎被人們普遍遺忘。

此次facebook的數據醜聞暴露出了大數據分析完全有可能被作為惡意武器,成為操控決策的工具。


數據隱私保護被忽視的問題

面對這樣的事實,如何保護數據隱私再度成為公眾討論的焦點。但這些討論中卻又常常忽視了另一個問題:即數據的使用和處理,是否也屬於數據保護的範圍?以及如果是,該怎樣做才能起到保護作用?

以歐盟歷經4年討論,即將於今年5月25日生效的《統一數據保護條例》(GDRR)為例,它同樣是基於數據的採集、使用許可及數據使用目的進行立法。從全球範圍來看,歐盟的《統一數據保護條例》進一步強化了數據保護措施,強調對自然人數據的尊重。

比如公眾有權利要求各種系統、應用程序停止記錄和使用自己的行為數據,並且,即使這些行為數據被採集之後,也不能永久保留,其時限最多為一年半。同時,用戶可以要求相關企業將其數據徹底刪除。換句話說,用戶可以選擇讓自己從互聯網上「消失」。

Facebook官方發布聲明,提出防止用戶數據被濫用的舉措。

此外,為了避免造成潛在的歧視,該條例還要求不得將敏感數據用於智能決策。所謂的敏感數據包括種族、政治傾向、宗教信仰、健康、性生活、性取向的數據,或者可唯一性識別自然人的基因數據、生物數據。

儘管如此,這一條例在應對如此快速增長的數據世界時,恐怕仍然捉襟見肘。雖然它從根本上強調用戶對其自身數據擁有相應的處理權,可以選擇刪除,可以拒絕被採集。但在實際上,用戶如果拒絕數據被採集,其結果往往意味著同時失去使用軟體或應用程序的關鍵功能。因此,事實上用戶的選擇權相當有限。

演算法造就的「黑箱社會」

再者,如果不能清楚地知道自己的數據如何被使用,被用於何處,那麼用戶這種選擇權同樣也將毫無用處。

雖然歐盟這一條例強調用戶擁有選擇權,並且要求進行數據分析的演算法可被理解,但在現實中,相關的人工智慧演算法或大數據分析演算法,往往是企業重要的商業機密。根據商業秘密保護的規定,演算法程序擁有相應的產權,可以無須公開披露的。因此,歐盟《統一數據保護條例》最終實施效果如何,恐怕還需要時間加以證明。

但在此之前,我們可以想像得到,演算法不公開將必然導致的一個結果,即是追究責任上的艱難。如果用戶不能知曉具體的分析演算法是什麼,以及該演算法具體使用其數據,那麼必然導致用戶無法判斷其數據是否正在被濫用。即使懷疑自己遭遇到演算法的不公平對待,由於演算法的難以理解或企業拒絕公開,用戶也往往無法就此提出控訴,導致用戶無法維護其權益。

facebook創始人馬克·扎克伯格

可以說,正是演算法的這種複雜性、不透明性導致了一個「黑箱社會」的形成。在這個「黑箱社會」里,真相只有被「局內人」所掌握,公眾對演算法理解得越少,就越難以接觸到事實的真相。與此同時,「黑箱」的存在,也讓相關人員掌握了欺騙公眾或隱藏真相的能力,讓其輕易擁有編造各種理由以應對調查的可能。

所以,保護數據隱私,不僅僅涉及數據的採集許可及其目的使用的限制,同樣需要對其使用過程,以及使用演算法,有著清晰、明確的邊界和能夠被嚴格理解的基本要求。

當然,上述悲觀的論述不應該成為我們拒絕科技進步的理由。畢竟藉助大數據和人工智慧演算法、技術進行數據分析,挖掘數據價值仍然是大勢所趨。並且,由於大數據所帶來的潛在危害,背後都是人為因素在作怪,因此,這些危害在很大程度上也是可避免的,關鍵在於首先要確保進行大數據分析的數據集是高質量的,其次避免相關演算法沒有被惡意設計或使用。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 冰川思想庫 的精彩文章:

太平洋大逃殺:血案蓋棺,隱患待除

TAG:冰川思想庫 |