當前位置:
首頁 > 最新 > 「殺熟」之外,關於城市大數據你還應該知道……

「殺熟」之外,關於城市大數據你還應該知道……

這篇文要講...

1. 數據底層結構周期。

2. 數據與城市的應用場景。

3. 數據的複雜性:效率和人性的平衡。

4. 我們可以做些什麼?

隨著數據底層開發的成熟,數據與城市之間充滿著各種各樣的可能性。

在數據優化,不斷提高效率的同時,如何更好地考慮數據的外部效益:人的互動體驗、社會公平、數據隱私等等都成為了數據3.0時代城市社計們在探索的問題。

面對這樣的現狀,我們可以做些什麼呢?

數據底層結構周期

諮詢機構高德納(Gartner)曾經把一項新科技/新概念在媒體上曝光度隨時間的變化總結為五個階段,並製成技術成熟曲線圖。總體來說,在一項新技術出現的初期,媒體和利益相關者的炒作會導致市場對該技術的預期遠高於其實際價值。之後隨著學術力量以及專家、工程師的加入,技術的缺點開始暴露,市場預期應聲下跌,跌到谷底。再往後,隨著技術的不斷改進,市場預期最終會回歸理性,技術也會開始穩步發展併產生相應的市場價值。

下圖為2014年的技術成熟度曲線,從中可以很明顯地看出,在2014年大數據(Big Data)就已經處於Peak of Inflated Expectations 與Tough of Disillusionment 階段的交叉處了,也就是說大數據自2014年開始經歷泡沫破碎。這也從另一方面解釋了目前區別於之前對大數據的單純追捧,人們開始關注起大數據「殺熟」,演算法歧視,隱私泄露以及其它大數據運用中的倫理問題。

(來源:百度百科)

大數據能為城市帶來什麼?

首先,大數據是有能力去改善和解決很多城市實際問題的,同時基於大數據的人工智慧(AI)等技術也已經開始越來越多地進入人們的日常。

一方面,大數據的應用在城市規劃與建設等宏觀層面為決策的制定提供了較為可靠的指向標。

譬如在天津救護車站的案例中,最早救護車站的站點選址只是粗略參考了大概的人口總數,路網密度等。但事實上更相關的數據應該是地區人口的身體健康狀況,年齡結構等。於是基於上述數據,以及已有的真實120求救數據,再綜合急救過程中GPS軌跡、花費時間等數據,天津市最終通過演算法重新對救護車車站進行了選址布局,將搶救時間縮短了30%。再譬如大數據也被有效地應用在空氣質量準確檢測、其它基礎設施建設布局以及城市功能區規劃方面。

微軟亞洲研究院主管研究員鄭宇博士曾經將大數據在城市中的應用稱為「城市計算」,並將其形容為「3BMW」:三個B,是指要用大數據解決大城市的大挑戰;三個M代表依然要繼續數據學習、數據管理和數據挖掘;三個W則是指人、城市、生態系統都要三贏。

(鄭宇博士,來源:網路)

另一方面就城市生活而言,基於大數據的自動化決策技術幫助服務提供商提高了服務的效率與品質,本質上也優化了消費者的消費體驗。

大數據創造商業價值的四個渠道

1. 客戶群體的細分與服務定製

2. 現實環境模擬,發掘新需求同時提高投資回報率

3. 管理鏈和產業鏈各端聯繫加強,提升效率

4. 降低服務成本,挖掘創新線索

數據的外部效應

那麼硬幣的另一面呢?

1. 數據泄漏所帶來的現實風險和倫理問題

大數據對於城市生活的負面影響,或許可以從最近的Facebook數據泄漏說起。一家名為Cambridge Analytica的公司在2016年美國大選期間,利用Facebook的數據漏洞,獲取了近5000萬用戶的個人數據。他們將數據與人工智慧技術結合,並在大選期間基於潛在選民群體的「心理特徵」對他們投放付費政治廣告,此舉或直接影響了美國大選的結局。事件揭露後在美國引發了軒然大波,Facebook股價應聲大跌,關於數據與人工智慧的「罪與罰」再次被推上風口浪尖。

(來源:網路)

從劍橋事件也可以看出,其實很多時候事情的重點並不在隱私數據泄漏本身,而在於被泄漏的隱私信息如果使用不到會對人們造成災難性的影響。

首先,隱私數據的泄漏確實會在現實生活中給人們帶來的風險。就像《頭號玩家》中的主角僅僅因為在「綠洲」中說出了自己的真名,就立刻在現實生活中被定位了一樣;現實生活中,任何人只要讀一讀你的交通卡就能確定你住在哪兒在哪兒上班,誤差不超過兩公里。而這樣的信息既可以用於精準營銷,也可以用於謀殺。

(來源:網路)

再者,對隱私數據的應用不當,能夠輕易地加劇當前社會存在的歧視與不公平,尤其當這樣的決策系統被使用在大範圍中時。已知的案例有,基於對大數據的分析,保險公司會為黑色人種的顧客設置不同的保率;Facebook會像從po文中表現出抑鬱傾向的用戶推送成癮性遊戲的廣告。這些例子中所涉及的「數據歧視」對於個人用戶來說既不公平也不道德。

另一個例子是職員聘用中的自動決策系統。仔細翻看一下社交網路,總是那麼一兩次你會看到人們在吐槽面試的奇葩經歷:被HR挑剔髮型或者穿著;整個面試過程由「你適不適合這份工作」變成了「面試的HR喜不喜歡你」。

那麼把HR換成機器的話,整個過程會客觀一點么?

並沒有。

目前應用在招聘階段的自動化決策系統通常的運作規律是,將面試者的表現進行記錄並轉化為數據,再與已存的「優秀員工」數據進行比對,最後挑選出那些數據相似性高的求職者進行錄用。於是處於生育年紀的女性被排除了,有抑鬱傾向的應聘者被排除了,有身體健康風險的應聘者被排除了,任何一個不符合「優秀員工」標準的應聘者都被排除了,創造比「優秀」更優秀成為了幻想,員工的多樣性也變成空談。

即使我們每日倡導著打破刻板印象和「撕標」行動,號召人們看到更多,理解更多,但在數據的參與下,我們又不假思索地重蹈覆轍,變回了一堆「標籤」組成的人。這整個過程安安靜靜,理性直白,少了感情的波動只餘下快速,高效,低成本。

(來源:網路)

2. 商家「智能挖掘」給用戶帶來的價格歧視

另外,即使是不存在數據的「泄露」,資本對於用戶的所謂「智能挖掘」同樣帶來了問題。譬如下圖提到的阿張與女友,打車軟體可能會針對老顧客提供更高的價格、出行網站會為老用戶推薦更貴的機票與旅館,因為老顧客被認為「對於價格更不敏感」,這也就是我們所謂的「大數據殺熟」;同時購物網站也會根據用戶以往的購物記錄對用戶進行價格歧視,譬如通過對用戶的購買記錄衡量顧客的消費能力,從而挑戰顧客的搜索結果等。

阿張習慣性地點開了X滴叫了個車去公司。等待的過程中他有些不耐煩地抖著腳,期間阿張的女朋友走到客廳來看了他一眼,什麼也沒說,阿張心裡隱約有些心慌。果然,等阿張出了門,他的女朋友緊接著就打開了X滴叫了個車,目的地也是阿張他們公司。

那麼現在問題來了……

[請問阿張和阿張女友誰需要付的X滴車費更多?]

最後,同樣是去阿張的公司,常用X滴的阿張付了37.8元,而他的女友只付了30.4元。與女友匯合後,阿張打開微博更新道:「X滴公司利用大數據殺熟…」

對此某知乎網友曾提到過一個極端的應對措施:原本的「佛系買家」為了避免被購物網站識別為對質量不敏感的用戶,會故意偶爾對商品進行挑剔,進行退貨處理等。這樣的結果想必消費者和商家都不願看到。

數據的問題還是人的問題

除去這些應用場景,大數據帶來的潛在問題也可能來自於大數據技術本身,或者源自於人本身。

1. 大數據所面臨的技術難點

微軟曾提出過一個城市計算的願景,其中包括了四個步驟:城市感知數據獲取,城市數據管理,城市數據分析和挖掘,到最後的服務提供。

就在這四個步驟中,很多技術上的難點仍有待解決,譬如在第一步城市數據感知時,最後的數據往往不是數據全集,而是採樣數據。那麼該如何選擇採樣數據呢?尤其是當採樣數據的分布上跟全集數據分布具有很大差別的時候。更糟糕的是,很多時候人們是第一次進行數據感知,甚至不能明確有這樣的差別的存在,更別說去計劃解決辦法。採樣數據的困難再配合上有限的資源,數據缺失等情況,如何實現數據感知的合理化,如何填補缺失數據等問題仍在等待著研究去進行改善。

(來源:網路)

當然,隨著技術的進步和成熟,這方面的問題終有一天將不再困擾我們。所以更為棘手的問題或許是數據本身,或者說人本身。

2. 人性數據複雜性,設計者偏見以及遠超人類理解力的機器決策

2016年3月,微軟開發了一個可以通過抓取和用戶互動的數據來對人類行為進行模仿的聊天機器人Tay。Tay被設定為一個19歲的女性,然而「她」僅僅在推特上線了一天,就被萬千用戶數據「調教」成為了一個叫囂著種族清洗,侮辱女性的「不良少女」,微軟只得麻溜地將「她」下架。

(來源:網路)

數據無好壞,那麼會不會「壞」的其實是人自己呢?

前不久果殼網一篇關於人工智慧的科普文章中指出,很多時候人們總是在責怪機器不夠智能,不夠人性;現在我們或許可以換一個思考方向,會不會是機器已經過於智能,過於「人性」了呢?

曾有相關人士提出,一個抱有偏見的技術人員,能夠通過數據和演算法將個人偏見擴大到足夠大的範圍中去,造成破壞性的影響。試著設想一下這樣的場景,面對經典的火車閘道問題「左邊一人,右邊五人,你要選擇碾壓哪一邊」時,自動決策系統會「不假思索」地就做出選擇,而這個選擇可能源自於系統設計人員對這個問題的個人認知或者來自於總被詬病「不夠人性」的系統對大規模數據的「理解」。

在這一類人類自己都尚未理清的問題上,我們真的要把決策權交給機器和數據還感到沾沾自喜么?

(來源:網路)

自AlphaGo 戰勝了柯潔的那一刻起,人們隱隱約約地開始意識到,有些東西或許正在失控。基於「機器學習」的發展,如今的計算機程序能學習的已經不僅僅是數據本身,而開始擴展到對於學習模式的學習,這就意味著「輸入和輸出不再是人工賦予的幾個變數掌握,而是讓機器在大量數據中自己分析特徵,決定變數權重…智能程序自己給自己設定演算法和權重,而最後為什麼輸出了某個決策,人類並不能完全理解」(果殼網:職場偏見,政治操縱,種族歧視……人工智慧作惡誰之過?)。

如此,我們真的能夠放心地放手將決策權交給一個我們不能完全理解的對象么?誰又能在這種情況下判斷對錯,進行監督?

我們能做什麼?

UNI全球聯盟數字化與貿易部門最近提出了《歐盟一般數據保護條例(GDPR)》,要求披露自動化決策中會對「個人造成顯著影響」的決定,與此同時,相關人員也有權對決定提出異議或者要求人為干預。但這樣的規定在現在看來依舊非常鬆散。

除此之外,對於技術人員更全面的素質培養,對於個人數據教育的加強也是讓大數據乃至於更多的相關技術真正服務於人的基本要求。

最後一點或許最難,數據歸根結底都是源自於人,去直面人性的真相,理性地為那些人性的陰暗角落設置應對措施和預防機制,或許才是最行之有效的做法。

(來源:網路)

課 後 練 習

你有過被大數據

「殺熟」的經歷么?

(歡迎在留言區留下你的分享)

Contact us

助手君微信:HeyMaxLab_01

如有任何問題,合作/推廣意向,請聯繫我們。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 HeyMaxLab 的精彩文章:

TAG:HeyMaxLab |