當前位置:
首頁 > 最新 > 研究顯示:美國預測犯罪的軟體並不比普通人更準確

研究顯示:美國預測犯罪的軟體並不比普通人更準確

一項最新研究發現,司法系統中常用於預測哪些犯人會再次犯罪的軟體COMPAS所取得的效果並不比Mechanical Turk平台上普通人的隨機選擇更好,且兩者都存在種族偏見。

由於公眾日漸懷疑類似COMPAS(用於替代制裁的矯正罪犯管理分析)的自動化系統是否能準確預測複雜的累犯率數據,達特茅斯學院的朱莉亞·德雷塞爾(Julia Dressel)和漢尼·法里德(Hany Farid)對這個系統展開了研究。

為了檢驗這個系統,他們在亞馬遜Mechanical Turk平台上招募了一些志願者評估罪犯的性別、年齡和犯罪記錄(當然,沒有提供該罪犯是否再次犯罪的信息)。關於罪犯隨後是否再次犯罪,這些志願者被要求提供肯定或否定的預測。隨後,這些預測被匯總起來,並根據大多數人的選擇做出最終判斷。這些罪犯的信息也被輸入COMPAS的累犯預測引擎進行處理。

事實證明,複雜而昂貴的軟體並沒有比未經訓練的普通人帶來更高的預測準確度,準確來說準確度還要更低。志願者正確預測累犯的概率為67%,而軟體的準確率只有65%。志願者和軟體同時預測的累犯者只佔70%。

如果說這個軟體的意義就是準確複製沒有經驗的普通人取得的結果,那麼基本是成功的。然而,情況並非如此。

實際上,研究者還發現他們可以只用年齡及前科次數這兩個數據點就能複製COMPAS取得的結果。

德雷塞爾表示:「我們的研究結果並沒有證明,那些神秘、看起來很複雜的數據工具要比人工更準確、更公平。使用這種軟體沒什麼幫助,只會導致一些人被剝奪第二次機會。」

用於分類犯罪的人工決策樹示例

這些還不是全部。研究進一步發現,志願者和COMPAS的分類器都表現出相當神秘的種族偏見。

兩者都會對黑人罪犯做出錯誤預測(即預測這些罪犯會再次犯罪,但實際上並沒有),而對白人罪犯會做出反向的錯誤預測。無論種族信息是否被包含在評估數據中,這種偏見都會出現。

在使用的數據集中,黑人罪犯的累犯率要比白人罪犯高(原因很多且複雜,因此這裡暫不討論),但評價中並沒有反映這點。無論評價者是否知道他們的種族,黑人罪犯都會被預測更容易再犯,而白人罪犯相反。考慮到這些數據可能被用於確定,哪些罪犯需要受到警方的特別關注,因此很可能這種偏見會永久存在。然而目前尚不清楚,什麼樣的指標可以替代種族指標。

不幸的是,關於公平性的問題尚無法得到解答。這項研究也沒有繼續探索這個問題的答案,而只是專註於系統的準確性。現在我們已經知道,準確率很低,因此人們可能會認為,COMPAS的所有預測結果都值得懷疑,而不僅僅是可能存在偏見的結果。

這樣的研究結論並不是全新的。2015年的一項研究關注了預測罪犯再犯的9個自動化指標,並發現其中8個指標是不準確的。

COMPAS的開發商Equivant已對這項研究做出了正式回應。該公司表示,只有6個指標實際被用於預測再犯,而不是研究中提到的137個(這些數據被用於其他判斷,因為COMPAS軟體的功能並不僅僅是預測累犯率)。此外該公司認為,從某些標準來看,70%的準確率(COMPAS的準確率確實接近於70%)已經足夠好。如果是這樣,那麼這些標準應當被重新審視。

類似紐約的城市正在開展正式項目,調查此類系統的演算法偏見,無論是預測犯罪,識別累犯者,還是給嫌疑犯定罪。這很有意義。對此類私有系統的獨立評估,例如本周的這篇論文,是讓企業保持誠實和產品有效性的關鍵。

one more thing

在Telegram與TechCrunch中文版互動!

頻道收聽地址:https://t.me/techcrunchcn

互動群組地址:https://t.me/techcrunchcngroup


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 TechCrunch 的精彩文章:

五輛蘋果員工班車遇襲 車窗玻璃被擊碎

TAG:TechCrunch |