演算法也有公平正義
編者按:本文原載《深圳特區報》2018年7月31日,感謝蔡斐老師授權轉載。
作者 蔡斐 西南政法大學副教授
「起初,我們塑造了工具,最後工具又反過來塑造我們。」面對著時代的日新月異,人類有必要在應用演算法技術的同時,加強技術的規範和監管。
最近,我的導師香港大學法律學院的傅華伶教授在一篇文章中稱「演算法即憲法」。這樣的論斷並非危言聳聽。在人類步入互聯網、大數據和智能化時代後,一切對象,包括人類,在演算法技術(algorithmic technology)的代碼和程序中都只是可計算、可預測、可控制的客體。
恰如布萊恩·阿瑟在《技術的本質》指出的那樣,「我們無法拋棄技術而去談時代,因為技術總比其它任何事物都更能代表一個時代的特徵。我們活在技術的潮流之中,時代的更迭與技術的發展息息相關。」人類很早就應用了演算法技術,並一直生活在演算法的世界裡,中國古代的勾股定理、古埃及的金字塔、古巴比倫的十六進位都是演算法應用的典型。當下時代,演算法技術更是發揮著極大的作用。它能夠規劃日常的出行線路、發現個體的喜愛偏好、處理複雜的金融交易、管理精密的生產流程、參與前沿的科學實驗、戰勝人類的象棋冠軍……有人甚至斷言,演算法終將統治世界。在這個意義上,演算法即憲法自然是有道理的。
不過,良法是善治的前提。如果演算法是「惡法」,那麼建立在廣泛用戶數據基礎上的演算法輸出恐怕就後果不堪設想了。目前,我們應用的演算法,大部分都是機構開發和推廣的,主動權並不取決於用戶個體的力量。作為機構意志的模型,演算法的實施初衷、數據運用、程序開發、代碼嵌入、結果表徵往往與機構掌控者的利益追求緊密相連。換言之,技術始終擺脫不了人的干預。正如互聯網先驅凱文·凱利所言,「人們在把自然邏輯輸入機器的同時,也將技術邏輯帶到了生命之中,機器人、計算機程序等人工製造物也越來越具有生命屬性」。
前不久備受詬病的「大數據殺熟」,就是上述「生命屬性」的例證。同一間酒店、同一趟航班,演算法技術會根據使用者的消費習慣,甚至是手機檔次,給出不同的價格。演算法技術表現出的逐利特徵,在商家的操縱下,被暴露得一覽無餘。更可怕的是,大數據殺熟背後隱藏的歧視本質,直接宣告了「演算法正義」的破產。只是,演算法歧視通常比以往的數字歧視更加隱秘,卻又表現得似乎更加「正確」。於是,很多時候我們並沒有注意到它的普遍存在。
2015年芝加哥法院使用的犯罪風險評估演算法COMPAS被證明對黑人犯罪嫌疑人造成了系統性歧視,白人更多被錯誤地評估為具有低犯罪風險,而黑人被錯誤地評估為具有高犯罪風險的幾率比白人高出一倍。美國卡內基梅隆大學的一項研究顯示,谷歌的廣告系統存在性別歧視。在推送「年薪20萬美元的以上職位」的高收入工作招聘信息時,男性用戶組收到1852次推送,女性用戶組僅僅收到318次。女性得到的推薦機會,僅為男性的六分之一。哈佛大學的研究也表明,「查詢被逮捕記錄」的廣告會更加頻繁地找上黑人。
自動化決策是演算法內在力量,它包括排序、分類、關聯和過濾等環節。相應地,排序被濫用、分類不透明以及刻意去過濾,很容易引發演算法過程中的歧視問題。只是由於演算法技術的專業性、複雜性和不透明性,公眾很難接近、發現影響排序的權重比例和影響因子,很容易忽視演算法歧視的現象和影響,也很難去糾正演算法不公引發的問題。
傳播學者麥克盧漢就曾經不無擔心地預言,「起初,我們塑造了工具,最後工具又反過來塑造我們。」面對著時代的日新月異,人類有必要在應用演算法技術的同時,加強技術的規範和監管。2014年以來,許多投身人工智慧發展的國家開始呼籲建立演算法技術的倫理準則和法律框架。比如,美國政府認為必須充分考慮演算法技術中暗藏的對用戶和社會造成影響的偏見,解決公司、機構和組織運用演算法系統的透明度問題,進而避免歧視現象的發生。歐盟數據保護委員會也指出,要警惕大數據對窮人或者弱勢群體的歧視,並提出應該慎重討論是否可以讓機器代替人類來做道德、法律等判斷的問題,這其實就是公平正義能否演算法化的問題。
顯然,討論這樣的宏大的命題,不是三言兩語就能說清楚的。惟願這些簡短的文字,能夠讓我們意識到:演算法並非那麼完美,技術也應有正確的價值觀。
編輯:易水寒天
TAG:法律那些事兒 |