當前位置:
首頁 > 新聞 > 演算法偏見無處不在,卻始終無人關心

演算法偏見無處不在,卻始終無人關心

可能人們會說,演算法基於數學,不像人類有著各種偏見與情緒,容易受外部因素的影響,所以怎麼會產生偏差呢?但存有偏見的數學模型確實正在悄無聲息地改變著我們的生活。然而,並沒有人願意為這些演算法負責。

正因演算法偏差的問題已開始日益嚴重,本周,一批研究員與美國公民自由聯盟(ACLU)在麻省理工展開了名為「現在的AI」的計劃,以確認並強調演算法偏差的存在和它的潛在危害。

如今正是機器學習與人工智慧進化和發展的關鍵時期,而演算法偏差卻構成了一個嚴重的社會問題。如果演算法中潛在的偏見使重要的決策變得無法識別和控制,這可能會產生極其惡劣的影響,尤其是對於較貧困的社區與少數群體來說。其可能會引發民眾的抗議和不滿也將大大阻礙技術的進步。

那些或許暗藏偏見的演算法早已被投入日常使用,用於做出重要的財務和法律決斷:各種獨門演算法正被用於多種場景,例如犯罪評估,信用貸款,僱用評價等等關切到人身利益的方方面面。

「現在的AI」計劃的兩名創始人,微軟研究員Kate Crawford與谷歌研究員Meredith Whittaker都表示,各種服務和產品都可能存在偏見:「距離我們真正理解演算法偏差還有很遠」。今年她們調查後才發現,有更多的系統存在此類問題,而那些未經調查的就更難說了。近期發現具有瑕疵的案例就包括用來評估教師教學質量的系統,以及在自然語言處理中偏向特定性別的模型等等。

數學家Cathy O"Neil在其《數學毀滅性武器》(Weapons of Math Destruction)一書中著重強調了許多演算法偏差帶來的風險。她的核心理論就是,人們過度盲目相信演算法,理所應當地認為既然模型基於數學,那麼它一定是客觀而公平的。「演算法或許能取代人類的一些工作,但卻無法達到相同的標準,」她說, 「人們太過於信任它們了。」

研究人員們表示,開發和使用機器學習系統的公司,以及政府監管機構等重要的利益相關者通常對避免演算法沒多大興趣。就拿金融和技術公司來說,它們每天都在使用各種各樣的數學模型,但這些屬於「黑盒子」的演算法使人難以理解其工作原理。 O"Neil則表示,她現在正在為谷歌新的求職服務演算法擔憂。

O"Neil之前曾在紐約巴納德學院(Barnard College)擔任教授,也曾擔任D. E.Shaw公司的定量分析師。如今的她創立了Online Risk Consulting & Algorithmic Auditing公司,幫助企業識別並糾正演算法中的偏差。但是,據O"Neil表示,就算它們知道自己使用的演算法存在偏見也常常無動於衷。只要沒有影響利潤,它們就會一直抱著這種得過且過的態度。對此,O"Neil也很無奈:「老實說,我現在根本就沒有客戶。」

O』Neil, Crawford, and Whittaker都提醒過,由於特朗普的政府對人工智慧甚至整個科學的發展都缺乏興趣,因此根本無法指望政府的監管機制來解決這類問題。「至少從他們的網站上能看的出來,白宮科技政策部門不再積极參与人工智慧方面的政策以及其他政策,」 Crawford和Whittaker寫道, 「那麼,這些工作就必須得在其他地方展開。」

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 DeepTech深科技 的精彩文章:

從素食者到啃食同類,看植物如何讓害蟲「喪心病狂」
宣告破產!比爾·蓋茨豪賭的「全球第五聰明公司」一年內迅速衰落
VR直播現已加入Facebook全家桶,無需設備也能圍觀
這種生物用腸子輸送血液,竟然是因為腿太長

TAG:DeepTech深科技 |

您可能感興趣

演算法,無處不在
演算法懂世界,但是不懂人心
事情污,但演算法不污
時代廣場採用了谷歌技術,無處不在的攝像頭、無處不在的演算法
人工智慧時代,不僅隱私被掏空,還要忍受演算法歧視?
演算法無法創作藝術,但它已經能夠左右你我的審美;是忠粉給了蘋果自信,讓發布會不再那麼有趣
演算法無法創作藝術,但它卻能左右你我的審美;是忠粉給了蘋果自信,讓發布會不再那麼有趣
愛情要有演算法,不要有算計
不要被動活在別人的演算法里
演算法也有價值觀,取決於你想用來做什麼
演算法厭惡「:人們更偏好控制錯覺
前端到底要不要演算法?
未來決定你工作的,可能是一堆演算法
為什麼我的力劈沒有觸發兩次,力劈不演算法術嗎
與其恐懼機器人,不如擔心演算法與數據採集
谷歌AI演算法新突破:看看眼睛就知道你會不會得心臟病
把人做決策換成演算法決策就公平了嗎?不見得
不許動!你已經被演算法綁架
不想硬啃理論和演算法,我還能入門深度學習嗎?
AI 競賽帶來的人才短缺問題,什麼演算法都解決不了