當前位置:
首頁 > 新聞 > 雖然AI預測犯罪很有用,但有時候偏見也不小

雖然AI預測犯罪很有用,但有時候偏見也不小

一部分人認為人工智慧可以消除人類偏見。在商務、醫藥、學術、打擊犯罪等領域,即使是簡單的統計工具也遠超人類。還有一部分人反對AI將偏見系統化,因為即使偏見未被編入程序,AI也自帶偏見。

雖然AI預測犯罪很有用,但有時候偏見也不小

2016年,ProPublica(一個獨立的非盈利新聞編輯部,為公眾利益進行調查報道)發布了一份廣泛引用的報告(Machine Bias),該報告認為,預測犯罪概率的常用演算法(COMPAS)帶有種族歧視。一份新的研究報告(The accuracy, fairness, and limits of predicting recidivism)顯示,至少ProPublica提到的案例演算法,雙方不相上下,演算法並不比人類精確公正。該報告還顯示:某些情況下,人類對高級AI的需求被過度放大。

自2000年起,名為COMPAS的專有演算法開始用於預測再次犯罪,即猜測某名罪犯是否會因再次犯罪而被逮捕。ProPublica的記者觀察了來自佛羅里達州的罪犯樣本,發現那些並未再犯的人群當中,被COMPAS錯誤標記為高風險再犯的黑人人數幾乎是白人的兩倍。而那些再犯人群中,被錯誤標記為低風險再犯的白人人數卻是黑人的兩倍,這激怒了公眾。但此後,有報道又稱,演算法比人們想像中的公正。風險評分相同的黑人和白人,再犯的幾率也相同,因此並不存在種族差異。演算法是否公平,取決于衡量標準,任何演算法都不可能滿足所有標準。

研究人員將預測再犯(罪)概率的準確性作為主要衡量標準。受試網路用戶閱讀的罪犯信息涉及七個方面,包括年齡、性別和犯罪記錄。研究人員使用COMPAS軟體預測。

雖然AI預測犯罪很有用,但有時候偏見也不小

COMPAS內部的演算法未知,但能夠讀取每個與人類預測的精準度和公正度基本相似,還有兩大驚人發現。其一,已知罪犯種族(第一組受試者和COMPAS的使用數據均不涉及種族信息),第二組受試者預測再犯概率時表現的偏見度與不知情時基本一致。

其二,要與COMPAS媲美,無需137條數據(甚至7條都用不上),也不用聰明的頭腦或演算法。某次試驗中,研究人員使用了一個極其簡單的機器學習演算法(邏輯回歸),僅需罪犯的兩條數據(年齡及此前犯罪的總次數),預測精準度就可高約65%。研究人員還嘗試了一個需7條數據完成預測的強大演算法(非線性支持向量機),但精準度並未提高。該項發現證實了一點(許多人工智慧研究員也曾提及):「深度學習」這一時下熱門技術並非萬金油。有些時候,僅需最簡單的演算法和極少量數據即可解決問題。

此外,研究人員還想強調,預測社會問題並非總是有跡可循。這些演算法預測的不是再犯的概率,而是被再次拘捕的概率。然而,即便同一種罪行,黑人往往比白人更容易入獄。因此,演算法(或人類)如果從包含人類種族偏見的數據中學習預測模式,很容易過度預測黑人的再犯率,從而增加其入獄率,陷入不公平循環。

達特茅斯大學計算機科學家Hany Farid 曾與學生Julia Dressel(現已畢業)開展了一項研究,希望這一發現能讓法院重新審視演算法的地位,比如法官在得知網路投票可信度不亞於複雜的系統預測結果時,能夠對其再次評估(補充一句,法官或許會更信任前者)。Farid稱:「我們希望演算法的工作原理更加透明。」

不少案例證明人工智慧有時要比人類更精準公正。然而,反之亦然,人工智慧和人類有時也不相上下。我們需要提倡此類研究,以驗證AI能做什麼,不能做什麼。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 科技行者 的精彩文章:

微軟公布AI新能力,你告訴它一段文字,它幫你畫成一幅畫

TAG:科技行者 |