當前位置:
首頁 > 天下 > 當演算法掌控我們的生活時意味著什麼?它會帶來的新一輪「不公平」

當演算法掌控我們的生活時意味著什麼?它會帶來的新一輪「不公平」

「大數據」、「雲計算」、「人工智慧演算法」這些詞在當今社會經常出現,大家總是幻想在技術的支援下,我們的社會會發展成像阿里的物流倉庫那樣,有序高效。然而現實情況是,演算法給工人們帶來的不止是光明,還有更多的不確定性。

在《2001:太空漫遊》中有這一幕:除了飛行員和科學家,飛船上還有一台具有人工智慧、掌控整個飛船的電腦「哈爾」,當飛行員大衛·鮑曼出艙執行救援後返回時,哈爾拒絕為鮑曼打開艙門:「對不起, 大衛。恐怕我做不到。」哈爾禮貌地拒絕,但態度冷淡。

這個情節已經成為一個明確的警告,告誡人們不要過於相信人工智慧,尤其是在太空工作的時候。在電影中,當機器決定成為主人時,事情就會出問題。然而,儘管有無數反烏托邦的警告,機器控制正在迅速入侵我們的生活。

1、演算法無處不在

演算法——解決問題或完成任務的指令集——現在影響著現實生活中的一切,從瀏覽器搜索結果到醫療服務。演算法也正在幫助設計建築;正在加速金融市場上的交易,研究如何在極短的時間內賺錢或賠錢;同時正在為送貨司機計算最有效的路線。

在工作場所,企業正引入自學演算法計算機系統,以便在招聘、設定任務、衡量生產率、評估績效甚至終止僱傭等領域提供幫助。

讓自我學習演算法負責制定和執行影響員工的決策,這被稱為「演算法管理」。它帶來了許多風險,可能會削弱管理體系的人情味,加劇原有的偏見。

在更深的層面上,演算法管理可能會鞏固管理層和員工之間的權力不平衡。演算法是嚴格保密的秘密。他們的決策過程是隱藏的。這是一個黑盒子:也許你對輸入的數據有一些了解,你看到了輸出的結果,但你不知道中間發生了什麼。

下面是一些已經在使用的演算法示例。

在亞馬遜位於墨爾本東南部的物流中心,他們為「採摘者」設定了速度,這些人的掃描儀上有定時器,顯示他們需要多長時間才能找到下一件物品。當他們掃描那個項目時,下一個項目的計時器就會重置。以「不完全是走路,也不完全是跑步」的速度。

或者人工智慧如何決定你在求職面試中的成功?超過700家公司已經試驗了這種技術。美國軟體開發商HireVue表示,該軟體讓應聘者回答相同的問題,然後根據語言、語氣和面部表情給這些問題打分,從而將招聘過程加快了90%。

誠然,人工評估在招聘面試中是出了名的有缺陷。然而,演算法也可能存在偏差。典型的例子是美國法官、緩刑和假釋官使用COMPAS軟體來評估一個人再次犯罪的風險。2016年,新聞調查網站ProPublica的一項調查顯示,該演算法存在嚴重的歧視性,將黑人受試者錯誤地歸類為高風險人群的幾率為45%,白人受試者為23%。

2、演算法的信息不對稱

演算法執行代碼可以顯示它們的操作。問題是這些代碼很少被公開,這使得它們很難被仔細研究,甚至難以理解。

這一點在零工經濟中表現得最為明顯。如果沒有演算法對工作進行分配、監控、評估和獎勵,優步和其他外賣、打車、訂餐平台就不可能存在。

例如,在過去的一年裡,優步的自行車快遞員和司機就把他們的工作和收入減少歸咎於演算法的無法解釋的變化。

騎車人不能100%確定這一切都取決於演算法。但這只是問題的一部分。那些依賴演算法的人不知道這是一種方式還是另一種方式,這一事實對他們有著強大的影響。

這是我們採訪了58名送餐員後得出的重要結論。大多數人都知道他們的工作是通過一個演算法(通過一個應用程序)分配的。他們知道這款應用會收集數據。他們不知道的是數據是如何被用來獎勵他們的工作的。

作為對演算法的回應,他們制定了一系列策略(或猜測如何)來「贏得」更多的工作,比如儘快接受臨時工作,在「神奇」的地點等待。具有諷刺意味的是,這些取悅演算法的嘗試往往意味著失去靈活性,而靈活性正是零工工作的吸引力之一。

演算法管理產生的信息不對稱有兩個深刻的影響。首先,它有可能鞏固系統性偏見,即COMPAS演算法中隱藏多年的歧視類型。其次,它加劇了管理層和員工之間的權力失衡。

我們的數據也證實了其他人的發現:指出演算法的決策機制有問題幾乎是不可能的。工人們通常不知道這些決定的確切依據,而且也沒有人可以抱怨。例如,當快遞員讓優步公司解釋一下為什麼自己的收入直線下降時,該公司的回應是:「我們無法手動控制你能收到多少快遞。」

3、演算法管理和公平管理的矛盾

當演算法管理作為一個「黑盒子」運行時,其結果之一是它可以成為一種間接的控制機制。到目前為止,這種控制機制沒有得到澳大利亞監管機構的重視,它使得平台能夠調動可靠、可擴展的勞動力,同時避免了僱主的責任。

維多利亞政府在其報告中對「按需」工作崗位進行了調查,「由於缺乏有關演算法如何運行的具體證據,如果司機或乘客感到自己受到了不利影響,他們也很難提出異議。」

6月發布的這份報告還發現,「很難確認對演算法透明度的擔憂是否真實存在。」

但確切地說,很難確定這就是問題所在。我們如何開始識別,更不用說解決,像演算法管理這樣的問題?

以公平的行為標準確保透明度和問責制是一個開端。牛津互聯網研究所發起的公平工作倡議就是一個例子。該倡議將研究人員、平台、工人、工會和監管機構聚集在一起,為平台經濟中的工作制定全球原則。這包括「公平管理」,它關注的是演算法的結果和結果對員工有多透明。

演算法對各種工作形式的理解仍處於起步階段,它需要更嚴格的審查和研究。如果沒有基於公認原則的人類監督,我們就有可能邀請哈爾(文章開頭提到的人工智慧)進入我們的工作場所。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!


請您繼續閱讀更多來自 譯言 的精彩文章:

SuperM回歸新造型,邊伯賢藍發冷艷金鐘仁C位,全員機車服滿屏荷爾蒙
木村拓哉戴粉色眼鏡曬照,17歲光希隔空默契曬同色墨鏡,繼承爸爸神顏