當前位置:
首頁 > 新聞 > 麻省理工媒體實驗室:面部識別軟體「更喜歡」白人男性用戶

麻省理工媒體實驗室:面部識別軟體「更喜歡」白人男性用戶

近日,麻省理工學院媒體實驗室的一項新研究推翻了以往專家的研究成功——面部識別技術基於提供的數據和創建演算法的條件,是會存在偏見的。

最近,麻省理工學院媒體實驗室(MIT Media Lab)研究員Joy Buolamwini,通過收集了政客們的面孔,建立了一組1,270張臉的資料庫,並根據他們國家的性別平等排名(換句話說,麻省理工媒體實驗室充分考慮了政治領域女性的比例)。隨後,Buolamwini測試了三種面部識別系統的準確性:微軟、IBM和中國的Megvii(曠視科技)。這項研究結果最初在《紐約時報》上報道了結果——性別認同的不準確性依賴於一個人的膚色差異。

研究結果顯示:在淺色皮膚的男性中,性別被錯認的比例最低,只有不到1%左右;淺色皮膚的女性被認錯的比例為7%;12%的黑色皮膚男性被三種面部識別技術錯認;而在深色皮膚的女性中,被錯認的這一比例最高,達到了35%。

「總體而言,男性試驗者比女性受試者更準確地被辨認,而較輕膚色的受試者比較暗的個體能更準確地被歸類,」Buolamwini在一篇關於她的研究結果的論文中寫道,該研究由微軟研究員Timnit Gebru共同撰寫,「一項跨部門分類研究顯示,所有的分類器在深色膚色的女性上表現的最差。」

這不是第一次面部識別技術被證明是不準確的了,但是越來越多的證據指向需要不同的資料庫進行印證,以及多樣性的創建和部署這些技術的人進行實踐。為了使演算法來更準確識別每個人,而不應該是針對不同種族和膚色有不同的結果。

2015年,谷歌的一項明顯錯誤被一名軟體工程師發現,因為該技術錯誤地將這位工程師的黑人朋友,在照片應用中被識別為「大猩猩」了。這是該公司承諾要解決的問題之一(實際上,解決辦法可能是從應用程序的搜索結果索引中刪除了「大猩猩」一詞)。

兩年前,《大西洋月刊》(The Atlantic)報道稱,用於執法目的的面部識別技術可能會「嚴重影響非裔美國人」。「這是一個更大的問題在這個不斷發展的技術領域——由於不準確的科技,無辜的人可以成為犯罪嫌疑人」。這中間一些問題Buolamwini和 Gebru也涉及在他們的論文中。在100個警察部門的長達一年的調查中,他們揭露了「非裔美國人更有可能在執法過程中,受到面部識別搜索的影響,這比其他種族的人更加嚴重。」

而且,正如《大西洋月刊》所指出的,其他研究小組發現,在過去,亞洲開發的面部識別演算法更有可能準確地識別亞洲人,而不是白人;在歐洲和美國部分地區開發的演算法能夠更好地識別白人面孔。也就是說,不同膚色地區的面部識別技術,最先適應的是當地人群的。

這些演算法並不是有意為之,但更多的研究支持這樣一種觀點,即需要做更多的工作來限制這些偏見。Buolamwini寫道,「由於計算機視覺技術正被用於醫療和執法等高風險領域,因此,我們需要對各人種的群體視覺演算法做更多的工作。」

看來,面部識別技術的識別能力,依然急需提升。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 科技價值 的精彩文章:

谷歌13年老員工吐槽離開原因:曾幻想死在公司,但它已喪失創新
滴滴與雷諾日產三菱聯盟達成共享計劃:2020年內擁有100萬輛電動汽車

TAG:科技價值 |